技术大爆炸时代,如何避免AI走向失控?

AI 的失控,指的是 AI 系统在运行中出现了不可预见的行为或结果,这些结果可能与人类的期望不一致,甚至可能带来负面影响。例如,一个自动驾驶汽车系统出现了故障,导致车辆失控,这将会对驾驶员和其他交通参与者的安全带来严重威胁。又或者,一个 AI 系统误判了某个人的行为,导致该人受到了不公正的待遇或惩罚,这将会对该人的权益和自由带来严重影响。

350 多名科技公司高管和科学家签署了一份联合声明,表达了他们对人工智能(AI)潜在危险的担忧和警告,甚至表示人工智能带来的失控不亚于大流行病和核战争。这份声明由非营利组织人工智能安全中心(Center for AI Safety)发布,部分科技界大腕签署了该声明,其中包括来自 Open AI、微软和谷歌的领导者,而这些公司正是从生成式人工智能中获益最多的公司。

然而,许多人仍然担心人工智能的危险。耶鲁大学 CEO 峰会的一项调查发现,42% 的与会高管认为,人工智能有可能带来灭顶之灾,在 10 年内毁灭人类。

AI 的失控,指的是 AI 系统在运行中出现了不可预见的行为或结果,这些结果可能与人类的期望不一致,甚至可能带来负面影响。例如,一个自动驾驶汽车系统出现了故障,导致车辆失控,这将会对驾驶员和其他交通参与者的安全带来严重威胁。又或者,一个 AI 系统误判了某个人的行为,导致该人受到了不公正的待遇或惩罚,这将会对该人的权益和自由带来严重影响。

目前尚未明确知晓 AI 将会如何毁灭人类。许多专家推测,它可能是由不良行为者利用其海量数据集制造生物武器或引入新病毒造成的。也可能意味着利用 AI 侵入关键任务计算机系统或故意发布虚假信息,从而可能在全球范围内引起恐慌。在另一种情况下,变得高度准确的人工智能本身可能会成为一个问题。想象一下一种人工智能算法,它致力于消除一种特定的疾病,以至于摧毁了其路径上的一切。

虽然许多世界末日场景可能永远不会发生,但人工智能确实有能力造成正在讨论的危险。部分问题在于,技术的发展速度超出了任何人的预期。以 ChatGPT 为例,它是 OpenAI 推出的一款火热的生成式人工智能解决方案。今年 4 月,当《今日会计》杂志对它进行注册会计师考试时,它惨败而归,但在短短几周内,它就以优异的成绩通过了考试。

01 为人工智能制定监管法规

随着大大小小的科技公司纷纷加入生成式人工智能潮流,建立起短短几个月前还难以想象的海量数据集,这显然需要监管部门的监督。

2022 年 10 月,白宫科技政策办公室发布了《人工智能权力法案》蓝图,要求在使用或构建人工智能时尊重隐私和公平。蓝图确定了指导设计、使用和部署以保护美国公众的五项原则。这些准则包括:

  • 安全有效的系统:人工智能解决方案应经过全面测试,以评估关切、风险和潜在影响。
  • 算法歧视保护:解决方案应以公平的方式设计,以消除偏见的可能性。
  • 数据隐私:人们应有权决定如何使用自己的数据,并受到保护,以免隐私受到侵犯。
  • 通知和解释:在使用人工智能时,应该有明确的透明度。
  • 人工替代方案、考虑因素和后备方案:你应该能够选择退出与人工智能的互动,转而选择人工替代方案。

自蓝图确立、ChatGPT 和其他生成式人工智能解决方案发布以来,拜登政府一直定期召开会议,以便更好地了解它并制定监管策略。

2023 年 6 月中旬,欧洲议会起草了自己的人工智能安全使用条例,并正一步步接近通过。「人工智能法案」禁止在公共场所进行实时面部识别,禁止使用操纵技术的评分系统和模型,禁止在生成人工智能系统开发内容时进行全面披露,禁止在被要求时提供数据来源。

02 如何执行法规

虽然建立透明、公平、安全和公正的人工智能的行为准则需要包括哪些内容已经很清楚,但如何执行它却是一个价值百万美元的问题,以下是一些考虑因素。

建立一个标准机构

与美国食品和药物管理局(FDA)为生命科学公司制定的《良好生产规范》(GMP)条例一样,需要制定明确的指导方针,并传达给希望获得「良好人工智能实践」称号的公司。这将需要一个类似于美国食品及药物管理局的联邦机构进行监督,负责对任何开发人工智能解决方案的公司进行检查并收集所需文件。

强制执行免责声明

无论生成式人工智能是用于开发内容、营销材料、软件代码还是研究,都应要求有一个高度可见的公开免责声明,表明其中部分或全部内容是机器生成的。

进行独立风险评估

谷歌及其人工智能研究实验室 DeepMind 建议采取若干措施,确保「高风险人工智能系统」提供有关其解决方案的详细文件。在这些建议中,最重要的是应强制要求独立机构进行风险评估。

确保人工智能可解释

当人工智能做出影响人们生活的决策时,个人应该能够充分了解算法是如何做出决定的。

在云端建立人工智能监管

在公共云中部署人工智能时,不仅需要获得联邦政府的许可,而且联邦政府要派专人密切监控云和云中部署的项目,使邪恶的人工智能无法进入。

让人工智能伦理成为所有数据科学家的必修课

所有软件工程和数据科学专业的学生都必须完成人工智能伦理方面的必修课程,然后才能在该行业工作。可以创建并实施一种人工智能伦理认证。就像《希波克拉底誓言》中医生承诺的「首先不伤害他人」一样,数据科学家在构建人工智能解决方案时也必须发誓做到这一点。

03 结论

我们正处于历史技术发展的新周期,生成式人工智能有可能彻底改变社会的方方面面,有好的一面,也可能有坏的一面。然而,与历史上所有其他重大转折点一样,人类需要掌控好 AI 发展的「方向盘」,在公平、透明和尊重人权的基础上做出相应判断,并确保利用人工智能的潜力去造福人类。

矢量AI门户网,优质AI资讯内容平台

(0)
上一篇 2023年8月23日 下午5:30
下一篇 2023年8月24日 下午3:48

相关推荐

  • 「大模型的安卓」也不好过,Meta内部「算力宫斗」,一半Llama核心团队已离职

    尽管凭借 Llama,Meta 已经拿下了「大模型里的安卓」的名头,但据科技媒体 The Information 报道,团队内部实际上充满了混乱和内斗,许多参与开发的工程师和科学家都已经离职。知情人士表示,2 月份发表的 Llama 原始研究论文的 14 位作者中,有一半以上已经离开了公司,有几位去了人工智能初创公司或其他大公司。

    2023年9月6日
    102
  • 微软不想被OpenAI架空

    但商场的拳台上没有裁判叫停,扎克伯格说 Threads 的用户规模目标是 10 亿。而只有达到 10 亿目标以后,Meta 才会认真考虑 Threads 赚钱的问题。这一数字相当于推特目前规模的两倍。

    2023年7月31日
    101
  • Window12将至,AI唱大戏

    在不少人看来,Windows的更新速度其实挺慢的,比如经典的Windows XP,从2001年发布到推出下一代Windows vista,足足过了五年的时间,而Windows 7到Windows 10(Windows 8仅部署在移动设备)则是等了六年。

    2023年10月11日
    146

发表回复

登录后才能评论