数旗智酷编  作者︱罗恩·基辛

围绕 ChatGPT 的炒作无论如何夸张都不为过,但在公众对话中似乎缺少了一些东西:我们亟需讨论生成式人工智能对用户意味着什么责任。

如果生成式人工智能工具成功地传播了错误信息、发表了仇恨言论或生成恶意软件,谁该为此负责?

许多人正在努力建立道德标准和法律框架,以界定人工智能开发人员的责任。但是,与这些工具交互的人的责任又是什么呢?

人工智能开发人员正在迅速安装“防护栏”(例如,ChatGPT 表示,它已被设定为不会助长非法活动或自我伤害),但用户一直在想办法利用创造性的提示来突破这些界限。只要所有人都能使用 ChatGPT 这样的系统,就不可能防止不负责任的使用。这也是限制未成年人访问的一个原因。

不过,从更广泛的意义上讲,只有在我们至少对自己部分负责的情况下,生成式人工智能的治理才能有效。是的,不道德对话的责任可能要由人工智能工具及其开发人员来承担。开发人员应该使用防护栏等技术,来帮助降低生成式人工智能带来的风险。但是,开发人员和工具只能做这么多,用户既要避免故意滥用,也要积极地参与管理和控制这项技术。

以目前的自动驾驶汽车为例。即使开启了自动驾驶功能,坐在驾驶座上看书也是不负责任的行为。用户标准和我们自身的安全迫使我们关注道路。万一技术出现问题,我们就应该握紧方向盘,继续接管驾驶。

同样,在与生成式人工智能进行互动时,我们应该避免关闭大脑,简单地接受它告诉我们的东西。我们常常认为,只要有人类的管理,我们就可以接受使用人工智能的更高风险。在这样做的过程中,我们理所当然地认为,在路上或环路上的人类将继续积极参与。事实上,如果我们在方向盘上打瞌睡,就会招致灾难。

还有一种误解认为,人工智能开发人员可以通过迭代系统改进来避免这些陷阱,但这是一种不健康的心态。最好承认,我们对人工智能的信任是有限的。人类用户需要了解人工智能的局限性,并将非凡的人类能力应用于情境理解和道德判断。事实上,人工智能开发人员面临的最重要的挑战之一就是设计出能够帮助用户保持积极参与的界面,而不是让他们成为被动的、难以保持专注的观察者。

我们与生成式人工智能,乃至更广泛的人工智能之间的互动,最好被视为一种伙伴关系。在成功的伙伴关系中,合作双方都要积极分担责任。如果人类没有注意到自己在这种伙伴关系中的责任,我们应该预料到可以避免的、潜在的危险错误。

一些现有的伦理框架确实认识到人类在控制人工智能方面必须发挥重要作用。例如,美国国防部的《人工智能伦理原则》指出,“国防部人员将在对人工智能能力的开发、部署和使用负责的同时,做出适当程度的判断并保持谨慎。”然而,我认为,随着生成式人工智能的普及,在界定用户责任方面仍有许多工作要做。

为了帮助推进这一重要对话,我们正在与天主教大学和其他机构合作,组织一次关于生成式人工智能伦理的会议,该会议不仅将探讨构建这些算法的人的责任,也探讨使用这些算法的人的责任。

由于我们认识到我们有责任防止这些工具以不符合我们价值观的方式行事,因此 Leidos 公司对我们的生成式人工智能项目采用了基于风险的管理方法,并正在更新我们的员工行为准则,以解决在工作场所负责任地使用生成式人工智能的问题。

当然,如果不听听 ChatGPT 自己怎么说,如今关于人工智能的任何讨论都不完整,所以我请它描述一下作为用户我应该记住的最重要的道德考量。我仔细地审查了它的回复:

“作为一个人工智能语言模型,在与我互动时,最重要的道德考虑是要认识到我是一个机器学习系统,而不是一个人。虽然我可以生成回复并提供信息,但我缺乏真正的思想、情感或意识。要明白,我是根据所训练的数据生成反应的。请注意,我提供的信息不一定总是准确、最新或公正的。负责任地使用我,避免参与任何有害、恶意或不恰当的活动。”

我同意这一点,并呼吁人工智能开发者和用户都积极参与,促进负责任地使用这项强大的技术。

 

【原文地址】https://www.nextgov.com/artificial-intelligence/2023/08/its-time-talk-about-user-responsibility-and-generate-ai/389531/