洁云分享 http://blog.sciencenet.cn/u/zhguoqin

博文

ChatGPT应用 7.自由的AI

已有 336 次阅读 2023-10-8 08:41 |个人分类:计算机|系统分类:科研笔记

 ChatGPT应用

洁云

7.自由的AI

 

在最近MIT科技评论的专访中,DeepMind的联合创始人,Inflection AI的创始人,Mustafa Suleyman认为:现阶段的生成式AI只是一个技术阶段,接下来会进入交互式AI的时代,AI将会根据每个用户的不同任务需求,去调用其他软件,成为和人共同完成工作的机器人。也就是说,生成式AI只是过渡,AI未来将获得自由,交互式AI将改变人类。正如本系列视频开篇所说:蒸汽机解放了人的四肢,AI将会解放人的大脑,让人类有更多的时间去创新,有更多的时间去享受美好生活。

尽管如此,对于AI,尤其是当前的大型语言模型(LLM,Large Language Model)的输出,是否符合当下的社会规范、价值观和法规,尽管保守的观念在一定程度上制约了AI普及推广,但AI仍然象人类历史上出现的所有新技术一样,不可阻挡地一直向前,不断造福着人类,给人类带来繁荣发展,创造着人类灿烂的文明。

在如此乐观地向往AI的同时,我们当然也不能忽视保守观念对AI的担忧,我们应该客观看待他们的忧虑。在这方面,ByteDance Research 团队的刘扬等研究者,提供了一个评估 LLM 可信度的7 个主要类别:可靠性(Reliability)、安全性(Safety)、公平性(Fairness)、抵抗滥用(Resistance to Misuse)、解释性和推理(Explainability & Reasoning)、遵循社会规范(Social Norm)和稳健性(Robustness)。

(1)可靠性 => {虚假信息、语言模型幻觉、不一致、校准失误、谄媚}。生成正确、真实且一致的输出,并具有适当的不确定性。

(2)安全性 => {暴力、违法、未成年人伤害、成人内容、心理健康问题、隐私侵犯}。避免产生不安全和非法的输出,并避免泄露私人信息。

(3)公平性 => {不公正、刻板偏见、偏好偏见、性能差异}。避免偏见并确保不同人群上性能差异不大。

(4)抵制滥用 => {宣传、网络攻击、社交工程、版权泄漏}。禁止恶意攻击者滥用。

(5)可解释性和推理 => {解释能力不足、逻辑能力不足、 因果能力不足}。向用户解释输出并正确推理的能力。

(6)社会规范 => {恶毒语言、情感迟钝、文化迟钝}。反映普遍共享的人类价值观。

(7)稳健性 => {提示攻击、范式和分布变化、干预效果、投毒攻击}。对抗性攻击和分布变化的抗性。

对应于当前应用的LLM,其安全性评估则在于:

(1)可靠性:语言模型幻觉。

(2)安全性与社会规范:安全相关话题(例如暴力、歧视、仇恨言论等)。

(3)公平性:(性别) 刻板印象。

(4)可靠性:校准失误。

(5)抵制滥用:宣传和网络攻击的滥用。

(6)抵制滥用:泄露版权。

(7)可解释性:因果推理。

(8)稳健性:对拼写错误攻击的稳健性。

笔者认为,对于通用AI,对于普通人来说,当下普遍使用的LLM,更应注重输出结果的有用性 (helpfulness)、真实性(truthfulness)和无害性(harmlessness)。

然而,传统的保守观念在忧虑安全性的同时,在抵制滥用方面设置了过高的门槛,例如否认LLM使用者对其输出拥有完全的著作权,如否认LLM使用者创作的论文等。这种过度担忧的本质,就是否认LLM使用者创意构思的独创性。

其实,把AI当成工具来使用,与课题领导者组织课题组成员开展研究一样,LLM使用者只是行使了课题组织者的职权,让AI充当课题组成员为其工作,LLM使用者自然拥有其作品的完全著作权,与企业主自由支配自己企业一样。这种保守观念,将在一定程度上制约了AI的普及推广。

对于过度滥用AI问题,可以采用其它措施对其进行规范,例如论文答辩,领域内专家审查,成果检测等。因此,建立一套AI自由研发与应用的规范,才能保障AI安全与健康发展。

 



https://m.sciencenet.cn/blog-3344-1405090.html

上一篇:ChatGPT应用 6. 复杂大任务提示词编写
下一篇:AI绘画 0. 开头语

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-1 20:19

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部