Top
首页 > 正文

AI需要创新发展和安全可控兼顾

眼下,ChatGPT爆火、AIGC(人工智能生成内容)快速突破,引发全球对人工智能(AI)安全性前所有未有的担忧。3月的最后一天,身处漩涡中的OpenAI创始人兼首席执行官山姆·阿尔特曼(Sam Altman)公布了自己5月和6月的旅行计划。
发布时间:2023-05-10 09:11 来源:电子信息产业网 作者:李佳师

眼下,ChatGPT爆火、AIGC(人工智能生成内容)快速突破,引发全球对人工智能(AI)安全性前所有未有的担忧。3月的最后一天,身处漩涡中的OpenAI创始人兼首席执行官山姆·阿尔特曼(Sam Altman)公布了自己5月和6月的旅行计划。他将前往欧洲主要城市以及迪拜、新德里、新加坡、雅加达、首尔、东京、墨尔本,除了与当地Open AI用户与开发者进行交流外,他还希望在一些城市与政策制定者进行会晤,以找到解除人类对于AI利用忧虑的答案。

目前,马斯克联手权威人士叫停GPT-4以上模型开发的签名规模,已从千人上升到数万人;欧盟和美国消费者权益保护组织呼吁对Open AI进行调查并实施更严格的监管;CAIDP(非营利组织人工智能与数字政策中心)要求联邦贸易委员会(FTC)停止ChatGPT的商业部署,并在未来推出任何模型之前独立评估模型。意大利宣布封禁使用ChatGPT;顶级投资公司SV Angel将在4月中旬召集OpenAI、微软、谷歌、苹果、英伟达等公司,探讨制定使用AI技术的标准。

是让AI继续野蛮生长,还是先找到更好的AI“刹车系统”和“安全带”再继续上路,引发全球大讨论。

与此同时,各国开始实施包括AIGC在内的AI更严格的监管。4月11日,中国互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见。同一天,美国商务部正式就ChatGPT等AI工具进行审查问责措施公开征求意见,包括新AI模型在发布前是否应该通过认证程序等问题。

AI越来越强,人类担忧什么?

AI的潘多拉魔盒终于被打开,从实验室逃出的AI,引发了全球前所未有的失控担忧。

Meta副总裁兼首席AI科学家、图灵奖获得者扬立昆(Yann LeCun)认为,目前人们对于AI的忧虑和恐惧,主要分为两类:一是与未来有关,担心AI未来会不受控制,逃离实验室,最终控制人类。二是与现实有关,AI在公平、偏见上的缺陷会对社会与经济造成冲击。

关于AI是否会逃出实验室,控制、统治人类,最近扬立昆与斯坦福大学人工智能实验室主任吴恩达(Andrew Ng)进行了一场公开直播对话,吴恩达给出的答案是,他没有看到今天的AI有任何逃出实验室的风险,至少要几十年甚至几百年才有可能。而扬立昆认为,让AI在一个特定硬件平台上保持运行都很难。言下之意,AI并无威胁和控制人类的能力。

北京邮电大学教授、人机交互与认知工程实验室主任刘伟更愿意将今天以GPT为代表的AIGC视为“线头握在人类手中的风筝”。“GPT是一种高级自动化、像‘人’的东西。而AI真正要产生突破的是独立性、自主性,GPT没有自主性,它依旧被人类编程操作,它更像是一个‘风筝’被手中有线的人类操控。”刘伟说。

虽然大部分专家都认为,让AI真正拥有超越人类的能力,有控制人类的能力,实现真正的AGI(通用人工智能)依然漫长。但人们依然担忧未来,在经典科幻电影《我,机器人》(I,Robot)中,机器人具有自我进化能力,转化成了人类的“机械公敌”,制造者和被制造者展开了战争。

未来看似遥远,但眼下AIGC所带来的现实冲击,已经足以令全社会震惊。

一是AICG让很多人丢了“饭碗”。4月12日,知名广告及公关服务商蓝色光标管理层下发邮件,称公司将全面拥抱AIGC,决定无期限全面停止创意设计、方案撰写、文案撰写、短期雇员四类相关外包支出。

蓝色光标停止创意外包采购,证实了OpenAI公司的判断。3月中旬OpenAI发布《GPT是GPT:大型语言模型对劳动力市场潜在影响的早期观察》调研报告。报告显示,8成劳动人口将受到ChatGPT影响,而且是学历收入越高越危险。另据就业服务平台Resume Builder调查统计,在1000多家受访美国企业中,用ChatGPT取代部分员工的比例已达到48%。按照高盛的研究分析,AIGC将改变全球约3亿个工作岗位,导致数千万人失业。微软CEO萨提亚·纳德拉说:“AIGC技术是知识工作者的工业革命。”

二是出现一系列新安全挑战。网络安全领域专家刘杰将AIGC引发的安全挑战概括为两类:一类是蓄意制造的,另一类是意外遗留的。

从蓄意制造的角度看,随着AIGC技术的发展,不实证据的制作变得越来越容易,恶意分子可能利用AIGC技术制作、传播深度伪造内容和其他虚假信息,进行AI诈骗、诽谤、假冒身份等新型违法犯罪活动。

“有图就有真相“的时代就有可能从此瓦解,带来的结果是社会的信任度下降,威胁个人的隐私和安全。

欧洲刑警组织在最新科技报告中指出,ChatGPT等AI驱动的聊天机器人或被滥用于发动网络钓鱼攻击、散布虚假信息和实施网络犯罪。此外,由于其有能力复制语言模式,可冒充特定个人或团体的讲话风格,该聊天机器人或被犯罪分子用来锁定受害者。

从意外遗留的角度看,“AIGC本身面临的风险有以下几方面:首先,AIGC训练数据集的质量会影响到模型的性能;其次,数据毒化的问题,通过在训练的数据集里面加入少量被攻击者精心构造的有毒数据,从而破坏模型的可用性、完整性甚至泛化性;最后,算法选取不当带来的风险。“刘杰说。

天壤智能创始人薛贵荣也谈到了“模型自身的不确定性和不可控性”。GPT-4已经是人类世界到目前为止最复杂的AI系统。整合了语言、视觉等多模态能力,多模态之间会互相加强并且迭代,最后迭代到什么高度是人类无法预知的。能力越强,风险就越大。最近AI似乎开始有走向自主化的趋势,国外已经有团队利用GPT-4进行科研,卡耐基梅隆大学化学系做了一个可以做研究又会做实验的AI系统,AI表现出很强的逻辑推理分析能力。中国科学院计算技术研究所研究员包云岗认为,GPT-4的知识体系中存在“污点知识”。也许这些“污点知识”在整个GPT-4大模型中的占比还不高,这些“污点”对于一些应用场景也许并不重要,比如生成一个团建活动方案或一个报告提纲等,但是对于一些需要精准答案的场景,确实是不可接受的。如何清理ChatGPT系列大模型中现有的“污点知识”,将是未来所面临的挑战之一。

“ChatGPT对话涉及用户很多个人隐私信息,比如个人资料、电话地址、公司信息、财务信息、医疗信息等,这类用户人信息被泄漏和不正当操纵,会造成比较大面积的公共安全威胁。”薛贵荣说。

事实如此,今年3月下旬,三星半导体刚引入ChatGPT不到20天,即发生了3起机密数据泄漏事件,涉及三星半导体设备测量资料、产品良率等信息。

三是对教育、组织结构、社会伦理等都将产生新的冲击。

“AIGC出现后,学生作弊现象层出不穷,AIGC的出现颠覆了传统教育,在之前的教育关系中,学习者的信息是远远低于教学者的,但是现在AI出现,让每个学习者都有无限的信息量。教育关系发生了变化。”LEAPS国际研究中心的创始人Joey Lin认为。

“AIGC的快速突破,智能的大量扩散,当每一个人都是专家,每一个人都是一个特种兵的时候,原来以班长、排长、连长、团长组成的静态树状组织结构,就很难满足企业、社会的发展需求。公司的结构、社会的组织结构就需要发生变化。”澜码科技创始人、CEO周健表示,目前看,GTP-3的智能略低于人类,GTP-4的智能与人类相当,GPT-5的能力有可能超越人类,当全社会都可以用极低的成本获得智能以后,原来公司的治理架构就无法适应了。

构建AI的缓冲带

中国的《生成式人工智能服务管理办法(征求意见稿)》与美国商务部的AI工具审查问责措施公开征求意见稿,都对AIGC的信息安全、数据合规、版权保护等一系列热点问题进行了规范,画出了红线,释放出技术发展与安全合规同步推进的信号。

与前几次工业革命不同,AIGC不仅仅是一个工具,作为一个新的智能体,其对于整个社会的影响超出想象,我们需要从更大的维度做更多深层次的思考,来构建缓冲带。

一是关于就业。这一次AIGC引发的产业转型以海啸般的速度袭来,其带来的就业冲击让人类措手不及,人类应该怎么办?

“三五年之内一定会有人因此失业,如果不做好准备,可能会引发社会的不稳定。”周健认为,应对未来AI带来的就业冲击,管理部门需要建立缓冲带,设立缓冲期。一方面,征收人工智能、机器人税。因为人工智能、自动化机器的出现,造成了人力的贬值和失业,可以通过收税的方式进行调节。征收机器人税既可以弥补因为劳工减少造成的个人所得税收损失,同时这些税收又可以用来重新培训和储备被人工智能、机器人取代的劳工,使其能够二度就业。另一方面,创造更多的新就业机会。创造就业的增量市场是解决就业存量市场问题的良策,新技术催生产业变革,一定会带来大量新产业就业岗位。

几年前微软创始人比尔·盖茨就对于向机器人征税投了赞成票:“机器人取代了部分人的劳动,导致部分人失业,应当通过征税来补偿那些因此失业的人。”

“新技术的出现总会让曾经的工作消失,但也会逐渐演化出新的职业,并促使经济更高质量发展,就业结构更加合理。”阿里研究院数字财税研究中心主任张凌霄认为。

得到APP创始人罗振宇认为,被冲击得越厉害的地方,新机会就越多。被替代的岗位越多的地方,诞生的新岗位也越多。“以行而求知”的任务式学习,将成为终身学习的主流。如果人工智能铺设的学习基础设施足够发达,学习者面对的现实挑战,才是学习行为的起点。

“未来大家要学习怎么和机器共事,社会要加强个人对AI的教育和学习,AI快速发展会催生类似人工智能培训师等很多新的职业需求,设计、机器人、生命科学、环境、能源等所有垂直领域都将迎来创新蓬勃发展的新局面。”薛贵荣说。

二是关于人机共存。面对飞驰前行的AI如何为之配置刹车系统?“严格谨慎的控制AI决策边界,尤其是和物理世界的直接交互。AI系统应在特定领域和任务范围内辅助人类,而非替代人类的决策、情感和道德判断。确保人类始终是决策的核心,从而避免对AI系统产生过度依赖和失控的风险。”金山办公软件全球业务副总经理张宁表示。

AI与物理世界的直接交互,是目前业界担忧点之一,周健表示,现在看来,AIGC的生命只存在于对话框,但是当AI与物理世界交互,那么AI的价值观就成为至关重要的“控制阀”。

如果有一天AI的智能超越了人类,成为比人类更高级的智能体,它会消灭人类吗?它如何与人类共存,我们应该如何面对?机器人还会遵循阿西莫夫在上世纪《我,机器人》中提出的机器人三大定律吗?

或许机器人三大定律再无法“框住”和“定义”机器人的世界,周健认为机器智能的进化正在接近一个新的起点,机器人与人类的共生、共存需要更本源的伦理探索。最近斯坦福、谷歌的研究者们利用生成式AI构建了一个“虚拟小镇”,创造了25个AI智能体在小镇上生存,机器人能够像人类一样生活、工作、社交,去复刻人类社会的方方面面,这样的探索或许能摸索到人与机器共存的法则。

未来将是人机共存的世界。最近出来进行AIGC创业的搜狗CEO王小川说:“我们正在创造一种新的生命,它和石头、蒸汽机、电脑的出现都不一样,以前都是工具,但AGI(通用人工智能)不是工具了——它是你的伙伴,新的朋友,是人类进化的下一个阶段。”

当AI向AGI加速推进,越来越多的观点认同AI将成为新的智能化生命体。香港科技大学首席副校长、欧洲科学院院士郭毅可认为,当我们不断强化“程序”智力的时候,我们更应当反问自己,人类如何在这样一个越来越强大的智能系统的交互中不断地进化自己,使我们变得更为聪明、更为丰富、更加强大,使得我们能够在这样一个知识生产的产业革命的新时代中,真正成为主宰者,从而创造一个崭新的人类社会。

“如果以AI为代表的硅基生命体是比人类更先进的智能体,那么人类应该有更大的视野,摈弃以人为中心,拥抱地球中心论。”周健认为人类利用AI应该有更宏大的视野,做好短期、中期和长期的准备,以此来建立AI应用的刹车系统。

“希望一百年后回头看,今天人类没有走错这一步。”张宁说。

合作站点
stat
Baidu
map