评论 > 惊人之语 > 正文

名家专栏:专家对人工智能革命的忧虑 2500万轻易被转走了

当人工智能无法给出答案或不知道答案时,它就会开始编造答案,以确保提问的人类感到满意。技术的进步也给坏人提供了制造“深度伪造”(deepfake)的机会。深度伪造是人工智能生成的视频,它能模拟真人,并能像真人一样交流。在香港的一个案例中,一名银行家以为自己在与公司同事进行视频会议,然而这是一个深度伪造的视频会议,不良分子说服他向他们转移了相当于2500万美元的资金。

一辆自动驾驶汽车正在高速公路上行驶

随着人工智能(artificial intelligence,简称AI)的应用范围不断扩大,从牙刷到汽车,许多产品中都加入了人工智能,然而监管和监督却与发展速度脱节,引发不少问题。

各个企业为了提高生产力和效率,纷纷转向人工智能,认为人工智能可以比人类更准确、更快速、更经济地完成任务。这导致硅谷裁员众多,然而我们采访的这位顶级人工智能专家最担心的问题并不是失业。

“我们担心的是……人工智能会创造出自己的人工智能。人类并不参与这个循环过程。这就是恐惧;这就是超级人工智能的开始。”加州圣何塞州立大学(San Jose State University)工程学教授艾哈迈德‧巴纳法(Ahmed Banafa)在EpochTV最近一期的《湾区创新者》(Bay Area Innovators)节目中尖锐地指出。

巴纳法教授是人工智能和网络安全方面的专家,被全球领先的职业社交网站领英(LinkedIn)评为2024年人工智能领域的第一名。他说,与其它技术相比,人工智能革命发生得太快了,其速度和公司数量每六个月就翻一番。

巴纳法教授认为,我们正处于生成式人工智能(generative AI)阶段,即通过输入数据对应用程序进行训练,它可以通过使用其编程算法形成自己的观点。总部位于加州旧金山(San Francisco)的人工智能研究实验室“开放人工智能研究中心”(OpenAI)开发的人工智能对话服务平台“聊天生成预训练转换器”(Chat Generative Pre-trained Transformer,简称ChatGPT)就是一个典型例子。

他说,ChatGPT3.5是在5000亿条数据的基础上训练出来的,ChatGPT4则是在一万亿条数据的基础上训练出来的,而由谷歌(Google)公司开发的新型人工智能聊天机器人Gemini则是在5.5万亿条数据的基础上训练出来的,这些数据不断训练和教育算法,让人工智能形成了自己的观点。

巴纳法教授介绍称,生成式人工智能之后的下一个阶段将是超级人工智能,在这个阶段,人工智能将拥有自我意识,开始独立思考。他认为这个阶段还需要几年时间。

“这就是我们将进入超级人工智能时代的时刻,届时机器开始……有一些情感。”他说,“我们对此感到担忧。……请记住,人工智能拥有非常强大的思维和连接方式;它们可以上网。”

他特别提到了谷歌开展的一项实验,在这项实验中,他们教了人工智能五种语言,然而后来他们发现,人工智能实际上已经学会了第六种语言,而这并不是计划中的。他们发现,人工智能认为这门额外的语言很吸引人,于是自己学会了这门语言。

“这就是我们看到的风险……我们看到的关于超级人工智能的爆发点,就是当它们开始不经我们同意就做出决定时。”他说道。

他介绍称,美国国防部开展了大量人工智能的研究和应用,它正在尝试用某些数据对人工智能进行编程,使其能够自行找到敌人。

他还回顾了美国空军提出的一个假设(这个假设曾在网上被当作真实故事传播):一架负责摧毁目标的人工智能无人机被其人类操作员多次叫停。最后,无人机撞上了通信塔,因为人类阻碍了无人机完成既定的任务。

“我们不希望人工智能发展到开始独立思考的程度;这是超级人工智能的领域,那时人工智能将人类视为自己的障碍。”他说道。

他介绍称,电影提供了一些经验教训,特别是始终要在人工智能中嵌入“终止开关”程序,以防人工智能失控。

他指出,人工智能目前存在的一个问题就是偏见。例如,当人工智能被问到一个问题时,它可能会给出一个有利于某个种族、信仰或政治观点的答案,因为这个答案是基于人工智能中的算法或程序,而这些算法或程序是主观的。

他说,另一个问题就是,当人工智能无法给出答案或不知道答案时,它就会开始编造答案,以确保提问的人类感到满意。

技术的进步也给坏人提供了制造“深度伪造”(deepfake)的机会。深度伪造是人工智能生成的视频,它能模拟真人,并能像真人一样交流。

他提到在香港的一个案例中,一名银行家以为自己在与公司同事进行视频会议,然而这是一个深度伪造的视频会议,不良分子说服他向他们转移了相当于2500万美元的资金。

白宫回应

巴纳法教授介绍称,他曾多次致信白宫,表达他对人工智能的担忧。

“从我寄给白宫的所有信件中,我得到了一个明确的信息,那就是美国政府永远不会站在技术发展的车轮前面。”巴纳法教授无奈地说道。

他指出,美国希望成为人工智能世界的领头羊,而且领先于许多国家,美国希望保持领先地位。但他认为,这种领先必须根据其对人类、社会和就业的影响来衡量。

在他最近一次与白宫沟通时,白宫科技政策办公室(White House Office of Science and Technology Policy)向他发送了一个人工智能权利法案蓝图的链接。该蓝图旨在支持在自动化系统的构建、部署和治理过程中,制定保护公民权利和促进民主价值观的政策和做法。

至于监管,他说国会议员不必了解人工智能,也不必深刻理解算法,而是要了解人工智能对社会、商业和技术的影响。

今年4月,联邦政府宣布成立人工智能安全保障委员会(Artificial Intelligence Safety and Security Board),由22名成员组成,并由国土安全部长(Secretary of Homeland Security)领导。该委员会由来自政府、私营部门、学术界和民权组织的领导人组成。

巴纳法教授认为,这三个利益相关群体联合起来非常重要。

“这将是人民的声音,‘我们关注隐私;我们关注安全;我们关注我们的安全。’”他说道。

委员会成员包括OpenAI、英伟达(NVIDIA)、超威半导体有限公司(AMD)、Alphabet公司、微软(Microsoft)、思科(Cisco)、亚马逊网络服务(Amazon Web Services)、奥多比(Adobe)、IBM和达美航空(Delta Air Lines)等公司的首席执行官们。委员会成员还包括马里兰州州长韦斯‧摩尔(Wes Moore)、公民与人权领袖会议(The Leadership Conference on Civil and Human Rights)主席,以及斯坦福大学以人为本人工智能研究所(Human-centered Artificial Intelligence Institute)联合主任等社会各界领袖。

巴纳法教授介绍称,委员会的工作将是向白宫提出监管和诉讼方面的专家意见和建议。

作者简介:

基根‧比林斯(Keegan Billings)是《大纪元时报》(The Epoch Times)驻旧金山湾区的记者,负责报导北加州新闻。

史蒂夫‧伊斯帕斯(Steve Ispas)是《大纪元时报》(The Epoch Times)驻旧金山湾区的调查记者。

原文:We Are at the Beginning of an AI Revolution: Expert Raises Concerns刊登于英文《大纪元时报》。

本文仅代表作者本人观点,并不一定反映《大纪元时报》立场。

责任编辑: 李安达  来源:大纪元 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2024/0625/2071552.html