我们不能忽视的生成人工智能的 10 个道德困境

革命性的人工智能 (AI) 及其功能对任何部门或行业都造成了影响。 尤其是生成式人工智能在改变日常运营方面引起了企业、个人和市场领导者的热议。

生成式人工智能具有生成多样化、高质量内容(从文本和图像到视频和音乐)的令人印象深刻的能力,对多个领域产生了重大影响。

根据Acumen的研究,全球生成式人工智能市场预计将达到 到 2032 年将达到 2088 亿美元,2023 年至 2032 年间复合年增长率为 35.1%。

然而,这项强大技术的发展伴随着一些不容忽视的道德问题和问题,特别是与数据隐私、版权、深度伪造和合规问题相关的问题。

在本文中,我们将深入探讨这些生成式人工智能伦理问题——它们是什么以及我们如何预防它们。 但首先,让我们看一下欧盟于 2019 年为值得信赖的人工智能制定的道德准则。

值得信赖的人工智能道德准则

2019年成立高水平人工智能专家组 值得信赖的人工智能 (AI) 道德准则

该指南的发布是为了解决当时潜在的人工智能危险,包括数据和隐私泄露、歧视性做法、对第三方造成有害影响的威胁、流氓人工智能和欺诈活动。

该指南建议值得信赖的人工智能必须依赖以下三个领域:

  • 道德:必须尊重道德价值观和原则。
  • 合法:必须遵守所有适用的法律和法规。
  • 健壮:必须从技术安全和社会环境的角度保证健壮的安全性。

此外,该指南还强调了人工智能系统必须满足的七个关键要求才能被视为值得信赖。 要求如下:

  • 人类监督:值得信赖的人工智能系统应该增强人类监督和情报能力,让人类能够根据自己的基本权利做出明智的决定。
  • 技术安全性和稳健性:人工智能系统必须具有弹性、准确、可靠和可重复性,并确保在出现问题时有后备计划。 这有助于预防和最大程度地减少任何意外伤害的风险。
  • 数据透明度:人工智能数据系统需要透明,并且能够向相关利益相关者解释其所做的决策。 此外,人类必须了解并了解人工智能系统的能力和局限性。
  • 隐私和数据治理:除了确保数据安全外,人工智能系统还必须确保充分的数据治理措施,考虑数据质量、完整性和合法的数据访问。
  • 问责制:人工智能系统应实施确保问责制、责任和可听性的机制,从而能够评估数据、算法或设计流程。
  • 多样性和非歧视:值得信赖的人工智能应该避免不公平的偏见,这可能会产生负面影响。 相反,它应该确保多样性和公平性,并且应该向每个人开放,无论其残疾如何。
  • 社会和环境福祉:人工智能系统应该是环境友好和可持续的,确保它们也造福子孙后代。
  • 尽管这些指导方针对人工智能行业产生了重大影响,但仍然存在一些担忧,甚至随着生成式人工智能的兴起而增加。

    生成式人工智能和道德问题的兴起

    当谈论人工智能的道德规范时,生成式人工智能带来了一系列独特的挑战,特别是随着 OpenAI 和 ChatGPT 等生成模型的出现。

    生成式人工智能的特殊性质引起了伦理问题,主要集中在监管合规性、数据安全和隐私、控制、环境问题以及版权和数据所有权等领域。

    例如,生成式人工智能可以生成类似人类的文本,包括图像和视频,引发人们对深度造假、假新闻的生成以及其他可能造成伤害和传播错误信息的恶意内容的担忧。 此外,个人还可以感受到人工智能模型基于其算法的决策失去控制。

    杰弗里·辛顿被称为人工智能教父的他表示,人工智能开发人员必须努力了解人工智能模型如何试图从人类手中夺走控制权。 同样,许多人工智能专家和研究人员也担心人工智能的能力和道德。

    Facebook 首席人工智能科学家、纽约大学教授 严乐存 表示人工智能可能给人类带来的问题和担忧“极其荒谬”。

    由于生成式人工智能赋予组织和个人前所未有的改变和操纵数据的能力,因此解决这些问题至关重要。

    让我们更详细地看看这些问题。

    有害内容的生成和传播

    根据我们提供的文本提示,人工智能系统会自动创建和生成可能准确、有用但也有害的内容。

    由于人工智能幻觉等原因,生成式人工智能系统可能有意或无意地生成有害内容。 最令人担忧的情况包括深度造假技术,它会创建虚假图像、文本、音频和视频,操纵一个人的身份和声音来传播仇恨言论。

    有害人工智能内容生成和传播的示例可能包括:

    • 代表组织发送和发布的人工智能生成的电子邮件或社交媒体帖子,可能包含攻击性和合理的语言,损害其员工或客户的情绪。
    • 攻击者还可以使用 Deepfake 来创建和分发人工智能生成的视频,其中包含政治家或演员等公众人物所说的话,他们实际上并没有说过。 巴拉克·奥巴马 (Barrack Obama) 的视频是最流行的深度造假示例之一。
      “TFW”是什么意思,你如何使用它?

    此类有害内容的传播可能会对个人和组织的声誉和信誉产生严重后果和负面影响。

    此外,人工智能生成的内容可以通过从训练数据集中学习来放大偏见,生成更多有偏见、仇恨和有害的内容,使其成为生成人工智能最令人担忧的道德困境之一。

    由于生成式人工智能模型是根据大量数据进行训练的,这有时可能会导致权威和版权问题的模糊性。

    当人工智能工具生成图像或代码并创建视频时,其所引用的训练数据集的数据源可能是未知的,因此可能侵犯其他个人或组织的知识产权或版权。

    这些侵权行为可能会对组织造成财务、法律和声誉损害,从而导致代价高昂的诉讼和公众强烈反对。

    侵犯数据隐私

    生成式 AI 大语言模型 (LLM) 的基础训练数据可能包含敏感信息和个人信息,也称为个人身份信息 (PII)。

    美国劳工部 将 PII 定义为直接识别个人身份的数据,包括姓名、地址、电子邮件地址、电话号码、社会安全号码或其他代码或个人身份号码等详细信息。

    数据泄露或未经授权使用这些数据可能会导致身份盗窃、数据滥用、操纵或歧视,从而引发法律后果。

    例如,人工智能模型、经过训练的个人病史数据可能会无意中生成可能与真实患者非常相似的个人资料,从而导致安全和数据隐私问题,并违反健康保险流通和责任法案 (HIPAA) 法规。

    现有偏见的放大

    就像人工智能模型一样,即使是生成式人工智能模型也只能与它所训练的训练数据集一样好。

    因此,如果训练数据集包含偏差,生成式人工智能会通过生成有偏差的输出来放大现有的偏差。 这些偏见普遍存在于现有的社会偏见中,并且可能包含在线社区中的种族主义、性别歧视或体能歧视。

    根据 2022年人工智能指数报告,2021 年开发了一个 2800 亿个参数的模型,这意味着偏差和毒性水平增加了 29%。 因此,虽然人工智能法学硕士比以往任何时候都更有能力,但他们基于现有的训练数据也变得更加有偏见。

    对劳动力角色和士气的影响

    生成式人工智能模型通过自动化日常活动和执行日常任务(如写作、编码、分析、内容生成、总结、客户支持等)来提高员工生产力。

    一方面,这有助于提高劳动力生产率,但另一方面,生成式人工智能的增长也意味着失业。 根据 麦肯锡的报告劳动力转型和人工智能采用估计,当今劳动力任务和活动的一半可以在 2030 年至 2060 年间实现自动化,其中 2045 年是中点年。

    尽管生成式人工智能的采用意味着劳动力的流失,但这并不意味着人工智能转型会停止或需要遏制。 相反,员工和工人需要提高技能,组织需要在不失去工作的情况下支持工人进行工作转换。

    缺乏透明度和可解释性

    透明度是人工智能道德的核心原则之一。 然而,生成式人工智能的本质是黑盒、不透明且高度复杂,实现高透明度水平具有挑战性。

    生成式人工智能的复杂性使得我们很难确定它如何得出特定的响应/输出,甚至很难理解导致其决策的影响因素。

    这种缺乏可解释性和清晰度的情况常常引起人们对数据滥用和操纵、输出的准确性和可靠性以及测试质量的担忧。 对于高风险的应用程序和软件来说,这尤其值得关注。

    对环境造成的影响

    生成式人工智能模型需要大量的计算能力,尤其是规模较大的模型。 这使得这些模型消耗大量能源,从而具有潜在的高风险环境影响,包括碳排放和全球变暖。

    虽然这是人工智能道德中被忽视的一个因素,但确保生态友好对于可持续和节能的数据模型是必要的。

    公平公正

    生成式人工智能可能会产生不适当、不准确、冒犯性和有偏见的反应,这是确保人工智能道德的另一个主要问题。

    它的出现可能是由于诸如影响边缘化社区的种族不敏感言论以及创建深度造假视频和图像等问题而产生的,这些视频和图像会产生有偏见的主张、扭曲事实并生成损害常见刻板印象和偏见的内容。

    问责制

    生成式人工智能模型的训练数据创建和部署流程通常使人工智能的责任属性变得复杂。

    在发生事故、争议和前所未有的情况时,不明确的等级制度和问责结构会导致法律复杂化、相互指责,并损害品牌信誉。

    如果没有可靠的问责体系,这个问题可能会立即恶化,从而强化品牌形象并损害品牌的声誉和信誉。

    自主与控制

    随着生成式人工智能模型自动化医疗保健、法律和金融等各个领域的任务和决策过程,它会导致失去控制和个人自主权。 这是因为决策主要是由人工智能算法而不是人类判断驱动的。

    例如,在没有人工干预的情况下,人工智能驱动的自动贷款审批系统可以根据个人的信用评分和还款历史来确定个人的贷款能力或信用度。

    此外,生成式人工智能模型有时也会导致专业自主权的丧失。 例如,在新闻、艺术和创意写作等领域,生成式人工智能模型创建的内容挑战并与人类生成的作品竞争,引发了人们对工作取代和专业自主权的担忧。

    如何减轻生成人工智能的道德担忧? 解决方案和最佳实践

    虽然发展和技术进步使生成式人工智能极大地造福社会,但解决道德问题并确保负责任、规范、负责和安全的人工智能实践也至关重要。

    除了人工智能模型创建者和个人之外,对于使用生成式人工智能系统实现流程自动化以确保最佳人工智能实践并解决所涉及的道德问题的企业也至关重要。

    以下是组织和企业必须采用的最佳实践,以确保道德生成人工智能:

    ✅ 投资强大的数据安全性:使用加密和匿名等先进的数据安全解决方案,有助于保护敏感数据、个人数据和公司机密信息,解决与生成人工智能相关的数据隐私侵犯的道德问题。

    ✅ 纳入不同的观点:组织必须在人工智能训练数据集中纳入不同的观点,以减少偏见并确保公平和公正的决策。 这包括让来自不同背景和经验的个人参与进来,并避免设计伤害或不利某些群体的人工智能系统。

    ✅ 随时了解人工智能领域的情况:人工智能领域随着新工具和技术的不断发展而不断发展,从而引发了新的道德问题。 企业必须投入资源和时间来了解新的人工智能法规并及时了解新的变化,以确保最佳的人工智能实践。

    ✅ 实施数字签名:专家建议克服生成式人工智能问题的另一个最佳实践是使用数字签名、水印和区块链技术。 这有助于追踪生成内容的来源并识别潜在的未经授权的使用或篡改内容。

    制定明确的道德准则和使用政策:为人工智能的使用和开发制定明确的道德准则和使用政策对于涵盖问责制、隐私和透明度等主题至关重要。 此外,使用已建立的框架,例如 人工智能风险管理框架 或者 欧盟值得信赖的人工智能道德准则 有助于避免数据滥用。

      带有均衡器和主题的可定制音乐播放器

    ✅ 与全球标准保持一致:组织必须熟悉全球标准和指南,例如 联合国教科文组织人工智能伦理 强调四个核心价值观的指导方针,包括人权和尊严、多样性和包容性、和平与公正的社会以及环境繁荣。

    ✅ 促进开放性和透明度:组织必须促进人工智能的使用和开发透明度,以建立与用户和客户的信任。 对于企业来说,明确定义人工智能系统的工作原理、决策方式以及收集和使用数据的方式至关重要。

    ✅ 持续评估和监控人工智能系统:最后,持续评估和监控人工智能系统对于保持人工智能系统符合既定人工智能标准和准则并符合道德规范至关重要。 因此,组织必须定期进行人工智能评估和审计,以避免道德问题的风险。

    结论

    虽然生成式人工智能带来了显着的好处并彻底改变了多个行业,但理解和解决周围的道德问题对于促进负责任和安全地使用人工智能至关重要。

    围绕生成人工智能的道德问题,如侵犯版权、侵犯数据隐私、传播有害内容和缺乏透明度,需要严格的法规和道德准则,以确保人工智能的正确平衡以及稳健和负责任的使用。

    通过实施和制定道德规则和指南并遵循最佳人工智能实践,组织可以最大限度地利用人工智能的力量,同时将道德风险和担忧降到最低甚至没有。

    接下来,查看会让您大吃一惊的人工智能统计数据/趋势。