科学文化足迹分享 http://blog.sciencenet.cn/u/lvnaiji 邮箱:naijilv@gmail.com

博文

ChatGPT三、巨量需求在短期甚至瞬间如海啸般涌入,难道不是最大的伦理? 精选

已有 6013 次阅读 2023-2-19 10:44 |个人分类:科技|系统分类:科研笔记

 吕乃基

本系列前面的三篇:

ChatGPT——一个创新案例的分析https://blog.sciencenet.cn/blog-210844-1375405.html

一、2.ChatGPT乃市场竞争之果https://blog.sciencenet.cn/home.php?mod=space&uid=210844&do=blog&id=1375743  

chatGPT 二、有“特色”的资本https://blog.sciencenet.cn/home.php?mod=space&uid=210844&do=blog&id=1375743  

1.OpenAI远去的承诺

一开始,OpenAI的新实验室旨在成为一家与DeepMind和谷歌截然不同非营利性质的机构,明确提出以将先进人工智能的效益民主化为使命,承诺公开所有研究,将所有技术开源,公司名称OpenAI也充分体现了对透明度的承诺。这些承诺与人类的价值观相一致。Open AI自成立之初,就致力于打造安全和通用AI的能力,并坚定的持续投入,这是ChatGPT成功的一大关键因素。在这样的愿景下,吸引了一大批高水平的人才,在没有任何商业KPI(关键绩效指标(Key Performance Indicator)的情况下心无旁骛地开展研发工作,最终取得了重大突破。

然而,训练庞大的神经网络成本高昂。几年后,阿尔特曼和OpenAI的其他人得出的结论是,要与谷歌、Meta以及其他科技巨头竞争,该实验室不能继续以非营利的方式运营。一旦沿着一开始设定的目标和路线进行科研研究,要取得突破,所需要消耗的计算资源每 3~4 个月要翻一倍,这就要求在资金上对这种指数增长进行匹配,而 OpenAI 当时非盈利性质的限制,还远远没达到自我造血的程度。阿尔特曼的一句名言:不要问我赚钱的问题,我怎么知道。然而在2019年,阿尔特曼对《连线》(Wired)杂志表示:“为了成功完成我们的使命,我们需要海量资金,数额远超出我最初的设想。”

随后的发展是,OpenAI从一家研究实验室变成价值数十亿美元的现象级企业,然而实现科学驱动的宏大想法的承诺正在远去。这也意味着,未来的GPT版本和后续的技术成果都将不再开源。OpenAI要让微软收回全部投资需要相当长的时间,这也就意味着其研发能力会被微软锁定相当长的时间。

一位前员工表示:而今“公司所关注的重点更多地倾向于如何开发产品,而不是努力回答最有趣的问题。”公司在策略和文化上的转变,是OpenAI前研究副总裁Dario Amodei带着10名员工(其中许多人从事人工智能安全工作)在2021年决定离开公司并成立研究实验室Anthropic的原因之一。其推出的 Claude 是 ChatGPT 的一个强有力的竞争对手,在许多方面都有所改进。Anthropic已得到来自谷歌的投资。

其实上述困境的解决之途也很简单,那就是米开朗琪罗的名言,上帝的归上帝,凯撒的归凯撒。员工未必由长江头一直跟到长江尾,从1干到到100。喜欢自由的留在三江源,面向实际的下沉到面向各类用户的市场。产业链上流动的是不同形态的产品。前文已述及,随着OpanAI逐渐盈利,在它渐次满足各方投资人、创世团队和员工之后,这家企业将回到初心。

2.谷歌的“声誉风险”和被解雇的伦理学家

“声誉风险”,指AI模型的训练数据集来自网络,因而容易让AI语言模型产生错误信息的幻觉,表现出种族和性别偏见,并且重复仇恨性语言。

像谷歌和Meta这样的大厂,产品影响着太多用户,对每一步举动都会思虑再三,策略自然不会像OpenAI这样的小初创公司一样灵活。Google所有在研的人工智能模型都禁止生成真实人物的图像,这对预防深度伪造(deep fake)将起到一定作用。谷歌AI负责人Jeff Dean此前曾告诉员工,谷歌有能力做出媲美ChatGPT的产品,之所以迟迟不愿发布,是因为担心这类产品会因提供错误信息等缺陷而影响公司商誉。

成也声誉风险,败也声誉风险。谷歌陷入“创新者的困境”:成熟公司很难让采用破坏传统市场的新技术或商业模式。当更小、更敏捷,较少束缚的竞争对手进入市场,或许最终会导致成熟大公司的消亡。

2020年,谷歌的人工智能道德专家主张要谨慎使用文本生成技术,有些高管被激怒,两位著名的人工智能道德专家Timnit Gebru和Margaret Mitchell被解雇。ChatGPT获得的关注激增后,也给Meta和谷歌之类的科技巨头造成了压力,让他们不再那么顾虑安全问题。随着谷歌和Meta这样的大厂开始争相追赶OpenAI,曾经那些批评家和伦理学家们,也会越来越受冷遇。

LaMD背后的研究人员也对谷歌的犹豫感到沮丧。眼看着手中的技术耽搁几年都无法投入市场,他们中的许多人纷纷离开公司,用同样的技术建起了初创公司。谷歌https://mp.weixin.qq.com/s/N-xeYFF4uJHtzfR6PqsotQ 

然而随即也被卷入与微软乃至更大规模的竞争之中。

3. 知识产权

人工智能专家表示,如果法院判决原告胜诉,可能会阻碍生成式人工智能的繁荣:大多数生成式人工智能模型都是使用从互联网上搜刮的材料进行训练,并没有取得许可或支付报酬。海量文本数据集正在成为一般的知识生产要素,在内容审核方面应适当放宽,使其更充分地发挥知识生产的潜能(段伟文)。

在上述事例中,充分可见伦理,在一定程度上还有法律等,面对科技突破和市场海啸时的软弱与滞后。如果有一家公司的产品在市场上获得特别是方向性的突破,就会对其他公司,尤其是大厂,构成巨大的压力,跟着轻易突破往日的禁忌。

与生成式人工智能、chatGPT和创新的“生成”一样,伦理和法律也应处于持续试探的“生成”过程中,而不是一次性,更不是事先的判决,拿以往的观点和条文去束缚生成中的创新。

    对此,ChatGPT自己的回答是,诚然,人工智能领域在技术上很复杂,而且发展迅速,这可能使建立明确的人工智能治理规则、标准和指南成为挑战。然而,这并不意味着这种规则、标准和指南是不可能的,也是不必要的。相反,可能有必要以灵活和可适应的方式处理这些框架的发展,并认识到随着我们对人工智能及其影响的理解的发展,它们可能需要被修订和更新

科技突破,资本强势介入,此时此刻,任何往日的伦理禁忌黯然失色。说到底,巨量需求在短期甚至瞬间如海啸般涌入,难道不是最大的伦理?

实际上,伦理等人文社科并不是“挡住”科技发展的步伐,而是在科技的发展及其成果中,实际上已然融入了人文的因素。参见:科学文化与人文文化的边界及其推移(合集)https://blog.sciencenet.cn/home.php?mod=space&uid=210844&do=blog&id=1372558 

chatGPT,难道只是科技?



https://m.sciencenet.cn/blog-210844-1376929.html

上一篇:chatGPT 二、有“特色”的资本
下一篇:chatGPT四、“技术爆炸”与“纵横交错”——产业哲学的视野

17 许培扬 武夷山 张学文 郑永军 周忠浩 宁利中 晏成和 王涛 康建 杨海龙 刘钢 李毅伟 谌群芳 李升伟 杨正瓴 马雷 伍光良

该博文允许注册用户评论 请点击登录 评论 (2 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 01:04

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部