AI界新贵“出圈”:ChatGPT揭示何种未来?

人工智能 科技

作者 张焕迪

近来,聊天机器人程序ChatGPT爆火“出圈”,引发各界关注讨论,人工智能(AI)这一概念也借此重回大众视野。针对相关话题,清华大学计算机科学与技术系副教授黄民烈接受中新社专访时表示,泛用性极强的ChatGPT已成为AI发展史上的里程碑,如何与AI共生是每个人可能都将面对的问题。

ChatGPT因何成为AI界新贵?

美国OpenAI公司2022年11月30日正式发布ChatGPT,上线仅5天,ChatGPT的注册用户数突破100万;今年1月末,ChatGPT的月活用户数破亿,就此成为史上用户数增长最快的消费者应用。



与ChatGPT类似的聊天机器人程序不少,但都没有如ChatGPT一般引领AI领域的新风潮,原因之一就是ChatGPT的泛用性更强,仅靠其本身就可以完成翻译、编程等专业任务。“ChatGPT最大的特点是通用任务助理,其可以在一个模型内完成极多开放任务,在生成任务、上下文理解、安全伦理方面也有相当好的表现。”黄民烈指出。

技术进步则是ChatGPT泛用性显著增强的重要原因。黄民烈认为,相较于主要基于规则学习的第一代和第二代聊天机器人程序,以ChatGPT为代表的第三代聊天机器人程序在技术上有着显著进步:其以Transformer为基本架构的大模型为技术底座,结合了大量数据和算力优化。

AI界新贵ChatGPT走红后,谷歌等大型科技公司纷纷宣布推出竞品,参与AI领域的新角逐。美国微软公司创始人比尔·盖茨日前称,AI将成为“2023年最热门的话题”。

“ChatGPT的出现是AI发展史上的里程碑事件,标志着人机无缝交互时代的来临,其可能再造搜索、推荐、手机助手等信息获取形式,对信息产业和AI行业产生深远影响。”黄民烈说。

ChatGPT面临哪些争议?

AI技术的发展也带来了诸多争议。以深度伪造(Deepfake)为代表的AI换脸技术此前引发了一波关于隐私权和真相的讨论。

对此,黄民烈认为,ChatGPT已针对法律、道德等问题进行优化,其表现也比“同行”更好,研发者收集高质量人工反馈数据时,把涉及安全性和道德的问题作为ChatGPT的重要部分设计进去了,再通过强化学习,ChatGPT就学到了安全回复的能力。

不过,ChatGPT仍面临道德问题。黄民烈举了一个例子:若用户要求ChatGPT作出违法举动,就会遭到拒绝;但如果用户借口创作小说要求ChatGPT提供违反法律的建议,就可能得到答案。

ChatGPT推出后,其强大的文字撰写能力得到了学生群体的青睐,被用作完成论文。迄今为止,美国、英国等国多所高校已明令禁止学生在校内使用ChatGPT。美国《科学》杂志近期也发表声明,称不接受使用ChatGPT生成的投稿论文,ChatGPT也不可以作为论文合著者出现。

黄民烈认为,使用ChatGPT完成作业或学术论文的问题之一是侵犯版权。但不能“因噎废食”,“技术可以继续发展,并在此过程中对问题进行针对性治理”。



另一方面,科技进步未能解决地区发展不平衡问题,全球科技鸿沟问题至今仍然存在。AI作为尖端科技,也只有少数国家能够在此领域进行大量投入。

黄民烈称,与AI息息相关的大模型训练需要大量算力和数据,训练和推理成本也很高昂,无论是学术界还是科技界,只有少量的机构能负担起相关技术的研发,这在一定程度上已经造成了不公平问题。

“AI威胁论”是否危言耸听?

随着AI技术日趋成熟,“AI威胁论”得到了更多关注。ChatGPT推出后,其具备的各种专业功能不断被发掘出来。有观点认为,程序员、翻译、客服等岗位最终都可能被AI取代。

针对AI技术发展可能引发的失业问题,黄民烈认为, AI工具的普及将降低自由撰稿人、游戏制作者等职业的门槛,带来更多自由职业的机会。不过,未来人工智能生成内容(AIGC)、用户生成内容(UGC)及专业生产内容(PGC)进行更深入地结合后,一些职业的淘汰是不可避免的,“如何与AI共生是每个人可能都将面对的问题”。

此外,科幻作品中的“AI威胁论”常包含一个重要因素——愈发强大的AI终将寻求消灭或取代人类。

对此,黄民烈称,科幻作品中的反派AI形象都具有自我意识,但现实中的AI目前既没有自我意识也没有自主决策能力,现阶段,AI所有能力的来源都是人类提供的数据和反馈。“ChatGPT这类系统是典型的机器属性,仅为满足人的信息需求或完成任务而存在,并不具有人格、情感、风格等。机器属性和能够满足情感、社交、陪伴需求的类人属性相结合才是真正的数字生命体,也就是真正意义上的‘人工智能’。”(完)

来源:中新网

Ken Chen Photography



 

 1,126 views