科技创新应树立底线思维——以人工智能发展为例

manbetx

2018-10-12

御苑石渠的宽度和深度与“曲水流觞”相宜,石渠中的石陂和左右散布的大卵石也为曲水流觞提供了不错的条件。遥想当年,繁花满园,鹿鸣呦呦,美酒顺流而下,石渠两侧,众人杂坐,且饮且歌,也是一幅非常美好的景象呢。(记者卜松竹)(责编:薛丹、杨良旺)人民网拉萨7月11日电(李重阳、吴雨仁)“医生,我们信任您,请帮助孩子正常行走!”2018年7月10日,北京中医药大学骨伤学系主任、教授、博士生导师徐林带领团队参加2018“同心·共铸中国心”甘南行大型医疗公益活动,来到甘南州藏族自治州合作市进行义诊巡诊、脑瘫筛查等活动,徐林团队对3名藏族贫困脑瘫儿童进行了腰骶段选择性脊神经后根切断术,帮助他们恢复自由奔跑的能力,手术利用徐林研制的神经阈值刺激仪,共耗时不超过4小时。

  ”越来越多脚上沾满泥土、手握翔实数据的基层代表委员成为两会舞台上的抢眼人物。

  为此,2001年森喜朗(时任日本首相)在伊尔库茨克与普京举行工作会晤并发表声明,再度确认“日苏共同宣言”的法律效力和“东京宣言”的解决原则。2003年小泉纯一郎(时任日本首相)正式访俄,在共同声明中决定尽快解决北方四岛归属问题并签订和约,让两国关系完全正常化,在“日俄行动计划”中,特别列明1956年的“日苏共同宣言”、1993年的“东京宣言”、2001年的“伊尔库茨克声明”等三份文件是谈判的基础。  时隔10年后的2013年,安倍正式访俄,同普京会谈后一致认为,战后67年两国还未签订和平条约是不正常的,决心克服双方立场上的隔阂,基于2003年的共同声明和行动计划,彻底解决领土问题,制定双方均可接受的解决方案。日俄外长为此进行了互访。可一晃3年,问题没有任何解决的迹象,俄罗斯因乌克兰冲突受到西方制裁,普京也没能回访日本。

    在桐乡书院朝阳楼后面的小天井西墙壁上,有一块嵌进去的矩形玉润石碑,上书“桐乡书院记碑”。这块碑是清翰林罗惇衍记刻的,记碑时间为道光三十年,书院创建10年后。

  华北一金融行业的猎头告诉记者,北京某互联网金融平台将调整基金业务,近期在挖基金电商背景的公募从业人员,职位从基金业务分管领导、产品总监覆盖到基金代销业务拓展、互金产品经理等。该互金平台以P2P业务起家,牌照齐全,涉及保险、基金、财富管理、海外业务等。

    港交所主席史美伦提醒,生物科技公司整体风险较高,成功率较低,投资者不要因为今后一两家生物科技公司的股价表现不好,就否定整个生物科技公司的上市发展,要多点耐心,看长远。

  既然如此,两部剧的口碑和收视为何如此不平衡?喧嚣浮躁的快节奏生活、人们在社会压力下的娱乐诉求、制作方的宣传营销策略、明星和粉丝的联动效应等虽然都是个中因素,但最重要的还当归因于共鸣感的覆盖面不同。毕竟日常生活的喜怒哀乐较之于传统文化的深层结构,更容易获取大众心理共识的最大公约数。当然,前者往往是短暂的,后者则是持久的,这也是快餐文化和经典文本的根本差异。

  情歌不真诚,和用情不专一,都是同一回事。对于安琥来讲,唱作情歌,他是专业的。

  最近,“人机大战”引起世人关注,人工智能发展引发的忧虑和争论开始从学术圈进入公众视野。 要将这些思考引向深入,而不是停留于盲目乐观或意气用事上,就需要拓宽视阈、厘清思路,特别是要善用底线思维来把握问题。

我们可以从近期威胁、远期威胁和终极威胁三个层面来分析无限制发展人工智能可能带来的后果,为思考人工智能问题提供一种视角。

  近期威胁的一个表现是人工智能开始大批量取代蓝领工人和下层白领。

这一点在发达国家的制造业中已表现得相当明显,我国一些工厂也正在用工业人工智能取代工人。 从经济效益角度看,工业人工智能成本的下降已经使“取代”变得有利可图。 蓝领工人和下层白领因为被工业人工智能取代而大批失业,当然不是社会之福。 “汽车的出现没有让马车夫找不到新工作”只是以往的经验,这一次也许并非如此:大批蓝领工人和下层白领陆续失业,如果到达某个临界点,社会就有可能发生动荡。

发展人工智能,必须充分考虑这一问题。

  近期威胁的另一个表现是军用人工智能的研发。

近来,史蒂芬·霍金、比尔·盖茨和伊隆·马斯克等人共同呼吁世人警惕人工智能的盲目研发,特别要警惕军事用途人工智能的研发,认为这有可能产生比原子弹更可怕的武器。 这一方面是因为军用人工智能有可能直接操控武器,一旦失控,后果难以设想;另一方面,即使没有失控,研发出这类更冷酷更高效的杀人武器,从根本上说也绝非人类之福。

  人工智能的远期威胁中,最容易想到的就是它们可能的反叛。

这一点很容易理解,《黑客帝国》《未来战士》等科幻影片中对此已做过大量设想。

人工智能业界和一些盲目乐观的人士,经常用“人工智能还很初级”之类的说法来安慰公众,但这样的理由是站不住脚的,“老虎还小”不能成为养虎的理由。

在这个问题上,“人造的东西不可能超过人”“可以为人工智能设立道德标准”之类的信念也是软弱无力的。

因此,在发展人工智能时,我们对这一威胁一定要保持足够的警惕。

  人工智能的终极威胁更加发人深省。

这种威胁并非建立在人工智能反叛的假定之上,而是恰恰相反。 阿西莫夫最为人知的是他提出的“机器人三定律”,但他另一个更重要的观点却少有人注意:所有依赖人工智能的文明都终将灭亡。 他给出的理由之一是:“一个完全依赖机器人的社会,由于极度单调无趣,或者说得更玄一点,失去了生存的意志,终究会变得孱弱、衰颓、没落而奄奄一息。 ”这个看法是很有见地的。   这里排除了人工智能反叛人类的可能,假定人工智能如我们所希望的那样,为人类承担了越来越多的工作。 但是,结果会如何呢?正如有的媒体所说的:“未来机器人,也许能胜任任何工作”。 如果“任何工作”都让人工智能承担,人类是不是就会变成整天混吃等死的寄生虫呢?如果真是这样,用不了多少时间,人类的机能和智力都将迅速退化,我们的人生就将变得毫无意义,这对人类来说是一种更为可怕的威胁。

  不怕一万,就怕万一。

凡事要从最坏处做准备,努力争取最好的结果。 认识到人工智能有近期、远期和终极三重威胁,要求我们在发展人工智能时必须慎重,不应盲目。 树立底线思维,正是为了“为之于未有,治之于未乱”。

在人工智能发展上首先要做好风险管控,这样发展起来的人工智能才是人类之福。

  (作者为上海交通大学科学史与科学文化研究院院长)。