lisw05的个人博客分享 http://blog.sciencenet.cn/u/lisw05

博文

《自然》不允许在图像和视频中使用生成式人工智能,为什么?

已有 1149 次阅读 2023-11-6 08:37 |个人分类:人工智能(AI)|系统分类:观点评述

《自然》不允许在图像和视频中

使用生成式AI,为什么

 

对此类视觉内容说“不”是一个关于科学研究的诚信、同意、隐私和知识产权保护的问题。 

编译 李升伟  茅 矛

(特趣生物科技有限公司,广东深圳)

 

图片1.png 

《自然》杂志不会发表全部或部分使用生成式AI创作的图像。图片来源:阿拉米图片社Artem Medvediev

自然不应该允许生成式AI用于图像和视频的创作?随着ChatGPTMidjourney等生成式AI工具创建的内容爆炸式增长,以及这些平台功能的快速增长,本杂志已经就这个问题进行了几个月的讨论、辩论和咨询。

除了专门关于AI的文章外,至少在可预见的未来,《自然》杂志不会发表任何完全或部分使用生成式AI创作的照片、视频或插图的内容。

我们委托和合作的艺术家、电影制作人、插画家和摄影师将被要求确认他们提交的作品都不是使用生成式AI生成或增强的

为什么我们不允许在视觉内容中使用生成AI ?归根结底,这是一个诚信问题。出版的过程——就科学和艺术而言——是以对诚信的共同承诺为基础的。这其中包括透明度的问题,作为研究人员、编辑和出版商,我们都需要知道数据和图像的来源,这样才能验证这些数据和图像的准确性和真实性。现有的生成式AI工具不提供对其来源的访问,因此无法进行此类验证。

然后是署名当现有作品使用或引用时,必须注明出处。这是科学和艺术的核心原则,生成式AI工具不符合这一期望。

同意和许可也是相关的要素。例如,有关人等如果正在识别、或者涉及艺术家和插图画家的知识产权,则必须获得这些信息同样,生成式AI的常见应用无法通过这些测试。

生成式AI系统正在接受图像训练,而这些图像尚未得到任何努力识别其来源。受版权保护的作品通常在没有适当许可的情况下被用于训练生成式AI。在某些情况下,隐私也被侵犯了——例如,当生成式AI系统在未经用户同意的情况下创建看起来像照片或视频的内容时。除了对隐私的担忧,这些深度造假的产生之容易也加速了虚假信息的传播。

适当的说明

目前,《自然》杂志允许收录在生成式AI帮助下生成的文本,前提是要有适当的说明这种大型语言模型LLM工具的使用需要在论文的方法或致谢部分中有记录说明,我们希望作者提供所有数据的来源,包括那些在AI帮助下生成的数据。此外,没有任何LLM工具将被接受为研究论文的作者。

世界正处于AI革命的边缘。这场革命带来了巨大的希望,但AI——尤其是生成式AI——在迅速颠覆科学、艺术、出版等领域的长期惯例。在某些情况下,这些惯例花了几个世纪的时间发展而成,但结果是一个保护科学诚信、也保护内容创造者不受剥削的系统。如果我们在处理AI时不小心,所有这些成果都有被破坏的风险。

许多国家的监管和法律体系仍在制定中发起对生成式AI兴起的回应。在他们赶上来之前,作为一家科学研究和创造性工作的出版商,《自然》的立场将仍然是对使用生成式AI创建的视觉内容的认同问题上,简单地说“不

资料来源:Nature

原文链接:Why Nature will not allow the use of generative AI in images and video  https://www.nature.com/articles/d41586-023-01546-4




https://m.sciencenet.cn/blog-2636671-1408592.html

上一篇:药物发现公司正在运用ChatGPT研发药物
下一篇:朝花夕拾:用结构生物学方法抗击SARS-CoV-2病毒

3 郑永军 宁利中 许培扬

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-23 16:38

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部