【环球时报报道 记者曹思琦】大型语言模型GPT-4及其相关的人工智能(AI)技术应用最近在火爆全球的同时,也引起广泛担忧。意大利个人数据保护局4月6日称,聊天机器人ChatGPT的开发公司OpenAI向意大利当局提交补救措施,以解决监管机构的担忧。上月末,意大利成为全球首个禁用ChatGPT的国家后,美国、德国、法国和爱尔兰等多国也相继表达了当前AI技术“存在风险”的观点。更让科技界震动的是,一封包括上万名科技界人士联名签署的公开信呼吁,所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月时间。
(资料图片)
一封联名公开信引爆科技圈
人类社会技术风险研究机构“生命未来研究所”于3月29日发布了公开信,呼吁由于“最近AI实验室陷入了一场失控的竞赛,只有当我们确信AI大模型的影响是积极的并且风险是可控时,才能开发更强大的AI系统”。这封公开信吸引了包括图灵奖得主约书亚·本吉奥、特斯拉创始人埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及《人类简史》的作者尤瓦尔·赫拉利等上千名科技大佬、人工智能专家和学者的联合签名。截至目前,该研究所官网显示已有超过1.3万人签署该公开信。
瑞士一所学校就ChatGPT的使用展开研讨。
这封公开信所担忧的就是以GPT-4大型语言模型为代表的最新AI技术。GPT-4是由OpenAI公司开发的人工智能程序,它可以快速生成流畅、准确和有逻辑的文本,还可以理解和回答各种类型的问题,甚至可以为用户进行创造性和技术性的写作。它最著名的衍生应用产品就是ChatGPT聊天机器人,网友使用后普遍感叹“难以分辨到底是在与AI还是与真人聊天”。
公开信明确提出:“具有人类智能水平的AI系统可能对社会和人类带来极大的风险,这一点已经得到顶级AI实验室的认同。”该信呼吁所有人工智能实验室应立即暂停训练比GPT-4更强大的AI模型,为期至少6个月。在此期间,公开信建议实验室和独立专家合作,针对AI的设计和开发建立共享的安全协议,并由独立的外部专家监督,确保AI系统“安全、无可置疑”。
目前国内也有知名学者、业界人士参与公开信签名,表达支持性观点。中国社科院研究员段伟文认为:“我们有必要通过暂停这种慢科学策略,使科技的力量在我们可以掌控的节奏下有序绽放”。清华大学教授梁正认为:“在这个时候提出这样的警示是必要的……人类可以借鉴核武器发明后签署核不扩散条约的经验,共同探讨提出针对通用人工智能的治理规则与防范手段,确保人工智能真正服务于人类福祉与未来。”
反对者的声音也有不少。例如Meta首席技术官安德鲁·博斯沃思认为,这封公开信“不仅不现实,而且也不会有效”。“通常情况下,你必须先了解技术是如何发展的,然后才能知道如何保护和确保它的安全。”力挺AI发展的比尔·盖茨也表示,公开信的呼吁不会有效,“我不认为暂停发展AI就能解决问题。很显然AI的进步有着巨大的益处,我们需要做的是找出那些棘手的领域”。
信任危机源自“算法黑箱”
面对AI竞赛的一路狂飙,人类究竟应该“踩刹车”还是“踩油门”?安远AI创始人、牛津大学人工智能治理中心政策研究员谢旻希接受《环球时报》记者采访时表示,不论是公开信的支持者、反对者还是旁观者,对当前AI系统的能力、风险、问题的可解决性等,都存在较大认知差异。必须承认的是,包括OpenAI在内的各国专家也没法解释GPT-4等大模型的行为,对其局限和风险的理解则更为欠缺。“我们认同GPT-4等级的大模型能创造巨大社会价值,风险防控需要把握分寸,不因噎废食。但AI创新与现实风险的平衡并非总是正确,有其前提。当科技风险非常严峻时,就只能风险防控优先,需要强化底线思维防范化解重大风险。”
从原理上看,ChatGPT是基于大量的文本数据进行训练,通过深度学习技术学习文本的语义和语法规律,从而实现自然语言处理的各种任务。这也意味着供它学习的数据库至关重要。但让国内外专家普遍质疑的是,OpenAI一直没有披露ChatGPT和GPT-4使用的训练数据、如何训练以及运作方式。这意味着在AI深度学习输入的数据和其输出的答案之间,存在着人们无法洞悉的“黑箱”,由此产生对这类AI技术的信任危机。
基于现有的深度学习原理,这类AI技术备受诟病的一点就是算法歧视与算法偏见。据报道,美国网民对ChatGPT的测试发现它有明显的政治立场,例如它拒绝写诗称赞美国前总统特朗普,却可以毫无障碍地称赞现任总统拜登。这就与ChatGPT使用的数据库有关,“大多数的训练数据本身就是有偏见和不安全的”。但在OpenAI没有公开相关算法的情况下,很难对偏见进行修正。由于“算法黑箱”的存在,甚至就连OpenAI团队也没有搞明白ChatGPT的推理能力到底是如何实现的。
北京通用人工智能研究院院长朱松纯教授在今年2月与加州大学伯克利分校教授斯图尔特·罗素的谈话中表示,虽然GPT-4这类大型语言模型已取得一些惊人进展,但在处理任务方面的能力有限,它们只能处理文本领域的任务,无法与物理和社会环境进行互动。这意味着像ChatGPT并不能真正“理解”语言的含义。此外,大型语言模型也不是自主的,它们需要人类来具体定义好每一个任务,就像“鹦鹉”只能模仿被训练过的话语。虽然ChatGPT已在不同的文本数据语料库上进行了大规模训练,但它并不具备理解人类价值或与人类价值保持一致的能力,即缺乏所谓的“道德指南针”。
因此ChatGPT和GPT-4都出现过“一本正经胡说”的情况,OpenAI称之为“幻觉事实”。当前ChatGPT开始大量被科学界用于辅助研究工作,包括整理会议记录、撰写文献综述和论文手稿等,“编造答案”问题已产生相当恶劣的影响。一名德国生物学家在接受《自然》杂志采访时说,ChatGPT曾给他列出一个完全虚构的参考文献列表,里面没有一篇真实存在的论文。
ChatGPT还存在泄密风险。不久前韩国三星集团内部发生三起ChatGPT误用与滥用案例,如三星内部人员在ChatGPT上提问、验证答案,却让这些答案成为ChatGPT的学习数据库,若有其他使用者在ChatGPT上提出相关疑问,恐让三星企业机密外流。为了规避数据泄露风险,软银、日立、富士通、摩根大通等不少企业明确禁止员工使用ChatGPT。
另外,最近风靡社交平台的AI图象生成软件Midjourney绘制的“特朗普被捕”等难辨真伪的照片在网上疯传。不少业内人士都担心未来这类AI技术可能被别有用心的人利用,产生虚假或误导性的信息,进而影响政治舆论、煽动暴力等。
“用AI识别AI”没解决辨真伪难题
在是否需要对AI发展设限的问题上,南京信息工程大学人工智能产业学院执行院长邹荣金在接受《环球时报》记者采访时表示,AI技术能提高生产力,带来社会价值,“这就像有了汽车之后,却要求大家不许用汽车,继续用马车,这条路是行不通的”。
朱松纯此前也表示,回顾漫长的智能进化史可以预测,通用人工智能的诞生几乎是不可避免的。为预防未来的通用人工智能给人类带来威胁,我们可以逐步放开通用智能体的能力空间和价值空间。我们可以先将AI系统的适用场合和行动空间限制在特定区域内,随着我们对AI的信任增加,确认AI系统安全可控后,再逐步给予它们更大的空间。另外,我们应该促进算法决策过程的透明度。“如果能外显地表示通用人工智能的认知架构,知道它是如何工作的,就能更好地控制它。”
由于ChatGPT和GPT-4产生了大量真假难辨的数据,目前各国都在推进针对现有AI技术结果的智能识别,这也被戏称为“用AI识别AI”。但业内专家承认,目前相关进展并不太顺利。例如针对学校作业和论文是否是ChatGPT的结果,出现了不少专业的文件检测工具,就连OpenAI也推出了名为AITextClassifier的文件检测器,但它们的识别正确率都不高。为此,英美等大批学校不得不明确禁止在论文和课程作业中使用ChatGPT,否则将被视为学术不端行为。
相对于识别AI文本,Midjourney等AI软件生成图片的识别难度更大。此前由于AI绘图对于人物手部的处理结果有所欠缺,因此可通过手部细节辨别是否是AI绘图的成果。但MidjourneyV5版本的更新就基本解决了手部细节的问题,目前更多需要从照片上的地面阴影朝向、人物眼神方向等细节进行分辨。邹荣金表示,随着AI技术的下一步迭代,未来很可能出现人类很难识别的情况。专家们担心,生成虚假图片的AI技术一直在进步,特朗普的名气使“特朗普被捕”这类照片的真伪很容易被识别,但要识别出普通人相关的图片可能困难重重。
邹荣金表示,针对这个问题,OpenAI除了开发AI技术之外,还在开发虹膜认证技术。“即使将来进入人工智能时代,要识别一篇文章是你写的还是机器写的,有了生物特征的唯一对应后,每一个信息出来都是可追溯来源的。”
美国高盛公司近日发布的报告称,生成式AI会导致劳动力市场出现“重大混乱”。邹荣金认为,“AI技术的推进,必然会有一些岗位将被替换,而且替代的速度会很快。这种焦虑一定是存在的,但会不会带来社会的动荡呢?我想暂时不会那么快。它过渡也是渐变的。ChatGPT最厉害的地方在于能编写程序,未来将应用在各个领域,我们表面上看到是聊天文字,但其实它将来会在各个领域应用。”
来源:环球时报
责任编辑:
关键词:
关于我们 广告服务 手机版 投诉文章:435 226 40@qq.com
Copyright (C) 1999-2022 baidu.baiduer.com.cn baidu爱好者 版权所有 联系网站:435 226 40@qq.com