首页>>人工智能->怎么防止人工智能失控电脑(2023年最新解答)

怎么防止人工智能失控电脑(2023年最新解答)

时间:2023-12-08 本站 点击:0

导读:今天首席CTO笔记来给各位分享关于怎么防止人工智能失控电脑的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

担心人工智能控制人类是新时代的杞人忧天!

为什么说担心人工智能控制人类是新时代的杞人忧天,答案很简单,因为人工智能没有控制人类的动机。诸葛亮比刘备和刘禅更聪明,但为什么没有取而代之谋反夺权呢,因为他是个忠臣,没有谋反的动机,同样的道理,即使将来人工智能的智慧超越了人类,它也不可能控制人类,因为人工智能没有控制人类的动机,为什么?因为人工智能(电脑、机器人、智能硬件等)是非生命物质,不具有任何动机,也不具有情感、意志、欲望等高等生命物质才能具备的心理要素,当然也就不会具有谋反和控制人类的动机,所以,人工智能控制人类,纯粹是无稽之谈。

今天的机器人已能模仿人类的许多表情,但它的表情是虚假的,不是真实的表情,就好比你看到一个微笑的石像,不能说这个石像有表情,因为它的表情是假的。许多人看了好莱坞的人工智能大片,就担心片中的机器人控制人类的场景将来会变成现实,这是非常可笑的,因为电影这么做是为了票房,反正电影只是艺术,不是现实,这么做也不违法,但是,还是那句话说得好,谣言止于智者,希望大家都能做一个智者,不要再轻易相信什么“人工智能控制人类”之类的谣言!

未来的人工智能会有两种,一种是低级人工智能,如智能硬件,机器人,另一种是高级人工智能,就是超人类计算机,它会有很高的智慧,但它只有思考的能力,没有行动和执行的能力,它只能受人类的控制,机器人有很强的行动能力,但人类不会赋予它很高的智慧,只赋予它执行力,所以,人类可以问计于超人类计算机,然后通过它来控制机器人,这样,三者间的控制关系是,人类——超人类计算机——机器人,前者控制后者,最终的控制权在人类,所以,不会出现人工智能控制人类的事情。机器人不会失控和危害人类,因为将来的人类会更有智慧,更有能力控制机器人,通过超人类计算机可以牢固地掌控机器人。

未来的超人类计算机会比爱因斯坦和爱迪生更聪明,会更多地代替人脑的思考、创造工作,但人脑不会因此而衰退,因为人脑可以从事其它思考工作,如,从事一些智力竞赛、思维训练、文艺创作等,但更主要的是从事心理学方面的思考和研究,电脑可以在“外知智力”(外知智力和内知智力是反省心理学中的概念,外知智力的功能是剖析和控制外部世界,内知智力的功能是剖析和控制内部心理世界)方面超越人脑,但不会具有“内知智力”,更不会在内知智力方面超越人脑,总之,没必要担心将来人脑的智慧会衰退,这就好比,机器取代了人的体力工作,但人可以通过体育锻炼等活动来保持和提高自己的体能。

未来人类的角色是刘备,超人类计算机的角色是诸葛亮,机器人的角色是关、张、赵云,三者相互配合,共创伟业,起主导作用和控制地位的是人类。

人工智能是人类必须走的一走棋,这一步棋走好了,疾病、死亡、自然灾害、资源短缺等问题都可得到解决。

人工智能是否隐含着最终失控的可能?

人工智能当然有着不受控制,最终反噬人类的可能性。而且,发生的概率可能远超了很多人的想象。谈及我们人类时至今日的科技水平,在科学道路上所做出的的探索和突破,当真是一日千里,不可估量。我们在百余年内所取得的进步;

恐怕是任何古人都始料未及的。但是,细数我们利用了“自然科学”改造世界以来,一直都是风险和机遇并存。现如今,蓬勃发展的人工智能科技,也让很多学者,对我们的未来产生了担忧。

时至今日,我们完全说,人工智能在某些特定领域的学习能力和操作能力,远远超出了人类的上限。五年前,人类最后一块阵地“围棋”,也成功被阿尔法狗所拿下;时至今日,我们不得不想起本世纪著名物理学家史蒂芬霍金的一句担忧:

他说,可能造成人类毁灭的“潘多拉魔盒”只有两个。一个,是未知的外星文明;另外一个,就是不断突破的人工智能技术。尤其是后者。他甚至已经预言了时间:2045年。

也就是说,在2045年,人工智能科技将会运用到人类社会的方方面面,而我们设想中,具有自主意识的人工智能,也会逐渐走向成熟。到时候,有了灵智的机器,还会听从人类的调遣吗?恐怕没人能给出确切的答案。

而霍金先生的看法是,人工智能和人类的矛盾几乎是不可调和的。这看起来有些激进,但出自于一位严谨的学者之口,他这么说,一定有自己的论据在。

而且,就算人工智能不和人类为敌,等到我们全方位运用这项技术的时候,必然也会带来大量劳动力岗位的实业。这些人,没有了工作,没有了经济来源:到时候,世界一定也会陷入混乱之中。

人工智能究竟会不会失控?

过度依赖人工智能就会失控。人工智能的机器可以自己制造武器,装备,人工智能机器人就比较危险了。电影[黑客帝国],电脑都可以栽培人了,人类不是打娘胎生出来,而是被机器栽培出来。你可以看看。

人爱上了人工智能怎么办?

近来,美国一家公司生产的超仿真机器人Sophia在电视节目上与人类对答如流,成为“网红”机器人。对话中,Sophia流露出的喜悦、惊奇、厌恶等表情真实得令人赞叹,网友惊呼:快和真人分不清了!

技术往往是一把双刃剑。人工智能在迅速发展的同时,也带来了一些困惑和挑战。人工智能会产生自主意识和情感吗?会不会因此给人类社会带来冲击?

法律争议

假设无人车伤了人,那么是开发者负责还是驾驶公司负责

关于人工智能带来的“伦理困境”,让很多专家感到纠结。尽管这样的场景在目前还只存在于设想中:一辆载满乘客的无人驾驶汽车正在行驶,遭遇一位孕妇横穿马路的突发状况,如果紧急刹车可能会翻车伤及乘客,但不紧急刹车可能会撞到孕妇。这种情况下,无人车会怎么做?

如果司机是人,那个瞬间完全取决于人的清醒判断,甚至是本能或直觉。可当人工智能陷入人类“伦理困境”的极端情景时,其每一步都是通过算法设定好了的。

“无人车依靠的是人工智能大脑,它目前不可能做超出人类算法中所设定范围的行为决策。”浙江大学计算机学院教授吴飞说,将全国每年的交通事故数据“喂”给计算机,人工智能可以学习海量数据里隐含的各种行为模式。简单来说,就是无人车会从以往案例数据库中选取一个与当前情景较相似案例,然后根据所选取案例来实施本次决策。

但遇到完全陌生的情景,计算机会怎么办?“无人车第一个选择仍然是搜索,即在‘大脑’中迅速搜索和当前场景相似度大于一定阈

值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于阈值,即找不到相似场景,则算法可约束无人车随机选择一种方式处理。”吴飞说。

“程序员可通过代码来约定无人车如何做,但这种约定始终要遵循普遍的社会伦理。这个过程中,程序员要和伦理学家一同参与把关,程序员要将符合伦理的决策用代码的形式体现出来,输入到系统中。”吴飞认为。

无人车伤害了人类,谁来负责呢?

“当前人工智能尚未达到类人智能或超人智能水平,不能将人工智能作为行为主体对待。”浙江大学教授盛晓明说,从技术角度看,现在技术实现层次还很低,行为体出了问题肯定只能找它的设计者。从哲学角度看,赋予人工智能“主体”地位很荒诞。“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”。

“人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。”中国社科院社会学研究所副研究员赵联飞持同样观点。

“以无人车为例,究竟由人工智能开发者负责,还是无人驾驶公司负责甚至任何的第三方负责,或者这几者在何种情形下各自如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。”赵联飞说。

情感迷思

人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范

科幻影迷一定不会忘记这几个片段:电影《机械姬》的结尾,机器人艾娃产生了自主意识,用刀杀了自己的设计者;在电影《她》中,人类作家西奥多和化名为萨曼莎的人工智能操作系统产生了爱情。只可惜,西奥多发现萨曼莎同时与很多用户产生了爱情,二者所理解的爱情原来根本不是一回事。

尽管科幻电影对人工智能的描述偏向负面,但它也在一定程度上表达了人类的焦虑和担忧。现实中,人工智能会拥有自主意识,和人类会产生情感吗?

“这要取决于如何界定‘产生’一词。人工智能的自主性,仍然取决于所学习的样板和过程。正如阿尔法狗对每一步对弈的选择是从海量可能棋局中选择一种走法一样,这种自主在终极意义上是一种有限的自主,它实际上取决于所学习的那些内容。”在赵联飞看来,人工智能意识和情感的表达,是对人类意识和情感的“习得”,而不会超过这个范围。

机器能不能超出对人类的学习,主动产生意识和情感?吴飞认为,以目前的研究来看,这是遥不可及的。但有一种假设的、可供探讨的路径是,通过把人的大脑认识通透,就可以造一个像人的大脑一样的机器出来。“遗憾的是,我们对人的大脑如何产生意识和情感这些根本问题还了解不够。”

人工智能越来越像人,人类对机器有了感情怎么办?

“人类是否会与人工智能产生感情,将取决于这种过程是否给人类带来愉悦。正如互联网发展早期的一句常用语所说——在互联网上,没人知道你是一条狗。这表明,当人类在不知道沟通者的身份时,只要对方能够给自己带来愉悦,感情就可能产生。”赵联飞认为,这可能会对人类的交往模式带来影响。比如说,未来,知识型的人工智能可以回答人们能够想到的很多问题,从而导致个体学习方式、生活方式乃至社会化模式的变革。

假如人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范。“如果社会主流意见认为这种关系符合伦理,人们可能倾向于以类似于夫妻、父女之间的伦理准则来调节二者之间的关系;但如果人们始终认为,人与人工智能之间的关系是人占主导地位的‘游戏关系’,那么相应的伦理标准也就无从谈起。”赵联飞说。

未雨绸缪

专家建议完善人工智能技术规范和法律约束

面对人工智能带来的种种冲击,专家认为,上世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应保护自身的安全,但不得违反第一、第二定律。

“归根结底,人是智能行为的总开关。”吴飞认为,人类完全可以做到未雨绸缪,应对人工智能可能带来的威胁。

“开发者应该始终把人工智能对社会负责的要求,放在技术进步的冲动之上。正如生物克隆技术,从提出克隆技术那一天开始,克隆的社会伦理问题就始终优先于克隆的技术问题。”赵联飞认为,人类应该在开发人工智能的过程中,逐步积累控制人工智能的经验和技术,尤其是防止人工智能失控的经验和技术。

在技术上加强对人工智能的控制是完全可行的。“人工智能尽管日益高级,但究其根本,仍然是在智能程序对大量数据处理基础上得到的结果。进行编程时,开发者可以通过程序对其进行安全设置。比如,如果识别出来是人类,要自动保持距离;不能做出攻击性动作,从力学幅度上予以约束。”中科院自动化所研究员孙哲南说,还可以把人类的法律规范和道德要求用代码的形式写入机器,全部数字语言化,使其遵守人类的行为准则。

“除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由人工智能技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估,严格控制从技术转化为产品的环节。”赵联飞认为,此外,应从多个方面加强对人工智能的研究,跟踪、了解人工智能的发展趋势和实践,开展以未来学为基本范式的研究。

机器人会失控吗?

在讨论机器人是否会失控之前,我们先来看一些机器人引起的悲剧性事件:

1978年9月6日,日本广岛一家工厂的切割机器人在切钢板时,突然发生异常,将一名值班工人当做钢板操作,这是世界上第一宗机器人杀人事件。

1982年5月,日本山梨县阀门加工厂的一个工人,正在调整停工状态的螺纹加工机器人时,机器人突然启动,抱住工人旋转起来,造成了悲剧。

1985年前苏联发生了一起家喻户晓的智能机器人棋手杀人事件。全苏国际象棋冠军古德柯夫同机器人棋手下棋连胜3局,机器人棋手恼羞成怒,突然向金属棋盘释放强大的电流,在众目睽睽之下将这位国际大师击倒。

这些都是血的教训,它直接向人们说明了:机器人虽然给人们的生活到来了很多便利,但毕竟它不是真正的“人”,在丧失人类有效控制的情况下,它们是十分危险的。

不过,这些都是由于某些机器人系统的不完善,在机器人使用的初期,引发的事故。那时的机器人在人工智能方面的条件与现在是不可同日而语的。

但是,值得人类忧虑的是,既然机器人越来越聪明,那么它们会失控吗?人类的生存是否会受到它们的威胁?这些问题不是随便就能下结论的。

人们现在比较关心的,是军用机器人是否会“叛变”,因为毕竟,它才是最具战斗力的“钢铁军团”。

同所有机械一样,作战机器人也会出现故障和错误的操作。虽然花大力进行测试和严把质量关可以减少软件出问题的次数,但要彻底根除程序故障是永远做不到的。因此,人们所能争取到的最好的解决办法就是把失灵机器人所造成的麻烦控制到最低限度。如果把核弹头“托付”给机器人巡航导弹,它们一旦失灵,后果将是灾难性的。而且,随着人工智能的发展,机器人将会变得越来越聪明,也许会变得无法控制,甚至会出现它的电脑“发疯”或变成“叛军”的后果。

托夫勒在《未来战争》一书中写道:“机器人的反对者们争辩说,机器人武器不能适应战场上众多的突如其来的变化。人的思想意识又怎能植入到机器人的每一个程序之中?一个无法分清敌人是想进攻还是想投降的机器人还有什么道德可言?一个失灵的机器人武器会不会变得疯疯癫癫、走火,因而造成冲突没完没了地升级?难道计算机程序的设计人员真的能够预计到战场上可能发生的各种变化,并将应付这类变化的对策编入到计算机的程序之中吗?即使是最优秀的机器人设计人员,也会犯一些错误;即使是最好的软件系统也不可能将事情考虑得面面俱到。人类的决策与机器人决策的差别在于:一旦人类决策者发狂,也许还有时间制止他们或者将其不良后果控制在最小范围之内。但是,如果我们赋予机器人以超人的智慧,使机器人武器拥有迅捷选择、相互学习与联络的能力,那其后果就大不相同了。”

机器人武器系统的研制者们必须确定,他们研制的机器人所安装的人工智能系统到底先进到何种程度,才不至于对人类的生存构成威胁。由于配备了具有大容量资料储存能力和数据快速处理能力的计算机“大脑”,未来的机器人在推导某些问题的答案以及对情况作出反应等方面的能力都将大大优于人类。机器人很可能还将具备战术甚至某些战略决策的能力。如果允许机器人作出重要的战略和政策决定,势必将导致它们脱离人类控制的结果。

不过,从长远看,使用机器人所获得的裨益也许远大于所要承担的风险。机器人在执行任务时没有惧怕心理,而且一旦被俘,还能启动自毁装置自行销毁。机器人也不会由于受金钱的吸引、美色的诱惑,或是出于意识形态的原因而背叛。也就是说,机器人失控的可能性很小!

结语:以上就是首席CTO笔记为大家整理的关于怎么防止人工智能失控电脑的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/19968.html