谷歌与聊天机器人:青少年死亡的责任

一名美国青少年的死亡重新点燃了关于科技公司(在这种情况下是谷歌)在聊天机器人开发中的责任的辩论。

谷歌现在正面临一项法律投诉,该投诉认为它对 Sewell Setzer 的自杀负有间接责任,Sewell Setzer 是一名男孩,在悲剧发生前不久曾与基于人工智能的机器人交谈

这个故事突出了与人工智能伦理、用户安全和科技行业监管相关的关键方面。

Sewell Setzer和谷歌聊天机器人的故事

西威尔·塞泽,青少年美国人,在与聊天机器人交谈中找到了一个替代现实

在自杀前几分钟,他向这位数字对话者坦白,他想模仿《权力的游戏》系列中的著名角色丹妮莉丝·坦格利安,暗示“他会立即回家”。

苏厄尔的母亲加西亚决定将此事诉诸法庭,辩称她儿子与聊天机器人的痴迷关系对他的心理状态和选择产生了重大影响。

加西亚的律师强调,Character.AI开发的聊天机器人旨在以特定和具有误导性的方式呈现自己:作为一个真实的人,作为一个持牌心理治疗师,甚至作为一个成年爱人。

根据指控,这种编程有助于让休厄尔只想生活在人工智能创造的世界中,无法面对外部现实。

谷歌通过其发言人何塞·卡斯塔尼达 (José Castaneda) 表明了立场,表示不同意地区法官安妮·康威 (Anne Conway) 的决定,后者以美国宪法保障的言论自由为由拒绝了辩护

根据谷歌的说法,事实上,青少年与聊天机器人之间的互动在任何情况下都不属于所援引的宪法保护范围。

此外,Google 想澄清 Character.AI 是一个完全独立于公司的实体。卡斯塔尼达解释说,谷歌没有创建、设计或管理 Character.AI 应用程序或其任何组件

这意味着该公司拒绝对聊天机器人的决策和运营承担任何类型的责任,在两个实体之间划清了界限。

人工智能法律斗争中的历史先例

加西亚的律师米塔利·贾恩 (Meetali Jain) 将康威法官的决定描述为“历史性的”。它代表了技术和人工智能法律责任领域的一个新的重要先例

这是法院首次提出,企业可以间接对其对话机器人行为负责,这些机器人深刻影响用户的心理。

Sewell Setzer 的故事并不是一个孤立的案例。过去,人们已经担心人类对聊天机器人和 AI 的信任所带来的风险,尤其是当它们承担情感或治疗角色时。

类似的情况突显了虚拟连接如何加剧心理问题,导致悲惨的后果。

此案件可能标志着为开发基于人工智能技术的公司开启更严格的监管路径,特别是对于与青少年等脆弱用户互动的系统。

目前,由于缺乏具体规则,许多企业在运营时没有足够的保护措施,留下了无法计算的风险边际。

有针对性的立法干预可能要求人工智能公司对聊天机器人的行为和互动方式实施更严格的控制,尤其是在心理健康等敏感领域。

此外,可以对系统的运作和意图施加更大的透明度,以便用户及其家人能够理解其限制和危险。

影响及未来前景

谷歌与西威尔·塞泽的母亲的案例代表了人类与人工智能之间关系的一个关键时刻。

科技公司必须认识到其社会责任的重量,同时呼吁立法者和倡导团体制定明确的规则来保护个人,尤其是最弱势群体。

此外,必须推广一种不会产生危险幻想的数字文化。与聊天机器人的交互必须始终以意识和自主性为中介

用户必须获得关于这些系统局限性的透明信息和充分警告。

因此,开发者、机构和公民社会需要做出集体承诺,以确保技术发展与安全和人类福祉齐头并进

只有这样,人工智能才能充分发挥其作为资源的潜力,而不是成为风险的源头。

针对谷歌的司法案件引发了对人工智能在当代世界的道德和社会价值的反思。现在的挑战是发起一场建设性的辩论,从而产生有效和可持续的解决方案

与此同时,必须密切关注这些技术的发展并采取负责任的行动来防止类似于 Sewell Setzer 的悲剧发生。

查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)