编者按
随着人工智能技术的快速发展,卫生领域不断尝试通过引入人工智能来改善医疗质量、提高工作效率。由于大模型技术能够对大规模数据进行复杂处理和任务处理,大幅提升人工智能的泛化性、通用性和实用性,因此该技术在疾病预测、诊断、治疗和药物研发等方面中应用有广泛的应用前景和潜力,但也带来了诸多伦理挑战和风险,亟须加强治理。
2024年1月18日,世界卫生组织(WHO)发布了英文版的《卫生领域人工智能的伦理与治理:多模态大模型指南》,旨在协助各国规划与卫生领域多模态大模型有关的益处和挑战,并为适当开发、提供和使用多模态大模型提供政策和实践方面的指导。
鉴于多模态大模型人工智能对我国获取未来战略竞争新优势、促进广大人民群众的健康具有重要战略意义,本刊第一时间组织从事相关领域研究的专家对指南精译了中文版,供各位研究者研究参考,以期促进医疗大模型伦理治理在我国的研究与指引,实现高质量创新发展和高水平安全的良性互动。
本文已在中国知网首发,参考格式如下:
王玥,宋雅鑫,王艺霏等.卫生领域人工智能的伦理与治理:多模态大模型指南[J/OL].中国医学伦理学:1-58[2024-03-14].http://kns.cnki.net/kcms/detail/61.1203.R.20240304.1833.002.html.
卫生领域人工智能的伦理与治理:多模态大模型指南
译者
王玥1,宋雅鑫1,王艺霏1,译;于莲2,王晶3,审校
(1西安交通大学法学院,陕西 西安 ;2西安交通大学公共卫生学院,陕西 西安 ;3首都医科大学附属北京中医医院,北京 )
上接前文
卫生领域人工智能的伦理与治理:多模态大模型指南
连载丨卫生领域人工智能的伦理与治理:多模态大模型指南(二)
连载丨卫生领域人工智能的伦理与治理:多模态大模型指南(三)
Ⅱ. 卫生领域通用基础模型(多模态大模型)的伦理和治理
世卫组织专家组确定的伦理原则(见上文)为利益攸关方提供了指导,使其了解在开发、部署和评估卫生领域多模态大模型时应遵循的基本伦理要求。这些原则应成为政府、公共部门机构、研究人员、企业和实施者治理多模态大模型应用的基础。
治理包括政府和其他决策者(包括国际卫生机构)制定指导和规则的职能,以实现有利于全民健康覆盖的国家和全球卫生政策。治理也是一个政治过程,涉及平衡各种相互竞争的影响和需求。现行的法律和政策不可能满足有效治理多模态大模型的需要,因为许多法律和政策是在早期版本的多模态大模型发布之前制定的。与人工智能的整体治理一样,对多模态大模型的治理涵盖适用现行和新的法律法规、“软法”(如伦理原则)、人权义务、实践准则以及企业、行业协会和标准制定机构的内部程序。
目前,多模态大模型的部署速度超过了我们充分了解其能力和缺点的速度。为消除对多模态大模型的担忧,早期的建议是禁止或暂停开发多模态大模型。虽然有些国家确实限制甚至禁止某些多模态大模型的使用,但大多数国家的政府现在都力求通过适当的治理,确保多模态大模型的使用能够产生有益于社会的结果。领先的人工智能企业也呼吁谨慎、审慎地开发多模态大模型和其他形式的人工智能。然而,政府和企业都无法避免竞争。一些国家的政府正在为争夺技术优势进行“军备竞赛”,而即使是呼吁监管的人工智能企业也难逃商业压力。乐观人士认为,人工智能的许多挑战和风险都可以通过设计来解决,包括不断扩大数据集和设计更强大的算法,但批评者指出,多模态大模型的局限性是系统性的,增加训练数据和模型参数的规模不仅不能克服缺点,反而会放大这些缺点。
多模态大模型的治理必须跟上其快速发展和日益增加的用途,不应给予寻求技术优势的政府和寻求商业利益的企业特权。以下初步建议将伦理原则和人权义务置于适当治理的核心,包括企业可以引入的程序和做法以及政府可以颁布的法律和政策。
多模态大模型可被视为一个或多个参与者在编程和产品开发方面一系列(或一连串)决策的产物。在人工智能价值链的每个阶段做出的决定都可能对下游参与开发、部署和使用多模态大模型的各方产生直接或间接的影响。政府可以通过在国家、地区和全球范围内颁布和执行法律和政策来影响和规范这些决策。人工智能价值链首先要整合若干投入,组成“人工智能基础设施”,如数据、算力和人工智能专业技能,以开发通用基础模型。这些模型可直接用于执行各种通常意想不到的任务(包括与医疗保健相关的任务)。有几种通用基础模型是专门为卫生保健与药品领域的使用而训练的。
应在价值链的每个阶段,从数据收集到医疗应用的部署,对卫生领域多模态大模型进行适当治理。因此,人工智能价值链的三个关键阶段是:
n通用基础模型的设计与开发(设计与开发阶段);
n通用基础模型服务、应用程序或产品的定义(提供阶段);
n医疗服务应用程序或服务的部署(部署阶段)。
在人工智能价值链的每个阶段,都要提出下列问题:
1.哪个行为者(开发者、提供者和/或部署者)最适合应对相关风险?应该应对哪些人工智能价值链中的风险?
2.相关行为者如何应对这些风险?他们必须坚持哪些伦理原则?
3.政府在应对风险方面应该扮演什么角色?政府可以引入或应用哪些法律、政策或投资来要求人工智能价值链中的行为者坚持特定的伦理原则?
在设计和开发阶段,重点是开发者可以采用哪些做法来维护伦理承诺和规范,政府可以进行政策制定和投资。在提供阶段,重点是政府可以采取哪些措施来评估和规范多模态大模型在医疗和药品方面的使用。在部署阶段,政府和价值链中的所有参与者都要采取措施,确保识别并避免对用户造成任何潜在或实际的伤害。
虽然下文的大多数研究结果和建议可适用于所有通用基础模型,但本指南的目的是针对可能或正在用于卫生保健与药品领域(由用户直接使用或通过应用程序或服务使用)的此类模型。以下建议也旨在指导设计和使用经过专门训练的多模态大模型,这些多模态大模型可直接由用户使用,也可通过应用或服务使用。
通用基础模型的设计和开发可能会带来严重的风险,如果不加以纠正,可能会对社会产生广泛的影响,或对多模态大模型的用户造成特殊的负面后果。消除或降低这些风险是开发者的责任,因为只有开发者才能够(或可以)在设计和开发过程中做出某些决定,而这些决定是可能会使用算法的提供者和部署者无法控制的(而且提供者、部署者或用户也无法通过正确使用技术来降低这些风险)。例如,这些决定涉及用于训练多模态大模型的数据。确保数据保护义务、质量以及减少偏差的义务的实现也不在应用程序下游开发者的控制范围之内,为确保多模态大模型不会发出“人工智能引发的毒性”而必须采取的措施也是如此。如果不追究多模态大模型开发者对此类设计缺陷的责任,就会像一份报告所指出的那样,使拥有最多资源的企业逃避“解决问题的责任……当他们急于主导一种新的应用人工智能形式时,他们的方法可能会不经意地掺杂其中”。
通用基础模型的开发者至少应通过政府法律法规等途径应对八种风险:
l偏见(与设计和训练数据有关);
l隐私(训练数据和其他输入数据);
l劳工问题(外包数据过滤,删除攻击性内容);
l碳足迹和水足迹;
l虚假信息、仇恨言论或错误信息;
l安全性与网络安全;
l维护人类的认识权威;
l对多模态大模型的独家控制。
开发者可以采取许多措施或做法来应对这些风险,无论是作为对伦理原则或政策的承诺,还是为了满足政府的要求。
人工智能专业技能(科学和工程人员):开发者可以确保其科学和编程人员能够识别和规避风险。世卫组织的伦理指南就科学和工程人员的培训以及设计过程的包容性提出了若干建议。特别是世卫组织专家组建议开发者考虑“对‘高风险’人工智能(包括医学人工智能)开发者的许可或认证要求”。
开发出应用于或可用于医疗、科学研究或药品领域的多模态大模型的企业和其他实体,应考虑进行认证或培训,使自己符合医疗行业的要求,并提高对其产品和服务的信任度。任何由开发者或专业学会引入和执行的标准,都应与政府监管机构合作或由政府监管机构制定,并应符合世卫组织增进人类福祉、安全和公共利益的伦理原则。暂未计划但可以预见其多模态大模型可能用于卫生领域的开发者最好应确保拥有内部专业知识,以预先准备和应对此类用途。
数据:尽管人力资源和算力对开发多模态大模型至关重要,数据可能才是最关键的基础设施要求。用于训练多模态大模型的数据质量和类型决定其是否符合核心伦理原则和法律要求。虽然人工智能开发者在定性调查中一致认为数据质量“很重要”,需要投入大量时间,但与数据相关的工作往往价值不高,这可能对医疗和药品等“高风险”领域的人工智能产生重大负面影响。如果数据没有达到适当的质量,就可能违反世卫组织的若干指导原则,包括增进人类福祉、安全和公共利益,以及如果数据导致偏见则应确保包容性和公平的原则。
由于将数据用于医疗保健可能需要严格遵守知情同意的法律规定,因此开发者在训练医疗多模态大模型时,可能不得不依赖较小的数据集。较小的数据集可能对于确保数据的质量而言是可取的,其多样化的数据可以避免偏差,也可以反映多模态大模型服务对象的构成和实际情况。然而,较小的数据集可能会增加重新识别个人身份的风险,从而使他们现在或将来受到伤害。依赖较小的数据集可能会带来更多益处,包括减少模型的碳足迹和水足迹,以及使较小的实体有可能参与或开发需要较少数据、算力、人力和财政资源的多模态大模型类模型。无论数据集的规模如何,开发者都应进行“数据保护影响评估”,按照《通用数据保护条例》的要求,这将要求开发者在处理数据之前,评估数据处理操作对个人权利和自由的风险,以及对个人数据保护的影响。从低收入和中等收入国家收集数据可能构成“数据殖民主义”,即数据被用于商业或非商业目的,却不对同意、隐私或自主权给予应有的尊重。
评估范围可超出隐私风险,包括数据质量,如数据是否公正准确。检查或审核此类数据集的人工智能研究人员指出,虽然为人工智能创建数据集很简单,但审核却很困难、耗时且昂贵。一位研究人员指出“做脏活累活工作要难得多”。
开发者可以采取其他措施来提高数据质量并遵守数据保护法。与早期多模态大模型的开发方式不同,无论模型大小如何,开发者都应根据按照数据保护规则的最佳实践收集数据进而对多模态大模型进行训练。因此,开发者应避免使用数据经纪人等第三方来源的数据,因为他们的数据可能是旧的、有偏见的、组合不正确的,或有其他可能尚未纠正的缺陷。谨慎收集数据还能确保多模态大模型不违反版权法或数据保护法,因为这些行为可能会带来法律后果,某些多模态大模型可能会因此被贴上非法标签。
如果使用第三方数据提供者的数据,可以对其进行认证,以建立信任并确保其专业性和合法性。开发者用于训练多模态大模型的所有数据,无论是直接收集的还是从第三方收集的,都必须保持更新。如上所述,一些领先的人工智能模型并未使用最新数据进行训练,这可能会影响模型在卫生保健与药品领域的表现,因为新的证据和信息会对决策产生有意义的影响。数据集应不断更新且准确无误,这样多模态大模型才能适配且与应用场景相关。
确保数据足够透明可能十分困难。推出新多模态大模型的企业的训练数据越来越不透明。一家发布新多模态大模型的领先人工智能企业表示“鉴于竞争格局和大规模GPT-4等大规模模型的安全影响,本报告不包含有关架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法或类似内容的更多细节”。
然而,不愿意让数据透明的做法不符合世卫组织关于确保透明、可以解释和可以理解的伦理原则。开发者应该对用于训练模型的数据保持透明,以便下游用户,包括对多模态大模型进行微调的用户、使用多模态大模型开发医疗应用的用户以及直接使用多模态大模型的用户,了解训练数据集的不足或不完整之处。
当开发者使用低收入和中等收入国家的数据工作者来筛查内容中有关辱骂、暴力或攻击性的材料并对数据进行标注,从而提高数据质量时,应向这些工作者支付维持生计的工资,并向他们提供心理健康服务和其他形式的咨询;开发者应采取保障措施,保护工作者远离任何形式的痛苦。各国政府应更新其劳工标准,将福利扩大到所有数据工作者,促进各企业之间的“公平竞争环境”,并确保劳工标准随着时间的推移得到维持和改善。
伦理设计和价值设计:将伦理和人权标准纳入人工智能技术开发的一种方法是“价值设计”,这是一种将人类尊严、自由、平等和团结等价值作为设计基础,并将其视为非功能性要求的范例。世卫组织最初的人工智能技术设计专家指南中的几项建议,包括“价值设计”,值得在此重申。
该指南建议,人工智能技术的设计和开发不应仅由科学家和工程师完成,“潜在的终端用户和所有直接和间接的利益相关者应从人工智能开发的早期阶段就参与到结构化、包容性和透明的设计工作中,并应有机会提出伦理问题、表达担忧和为可能采用的人工智能应用提供意见”。因此,在基础模型的开发过程中,可能使用模型或从模型中受益的人可以参与初始开发。其中一项建议是引入所谓的“人类监督协会”,这将有助于让患者代表参与旨在直接或通过医疗提供者间接使患者或护理者受益的多模态大模型开发过程。医疗保健专业人员、研究科学家、患者、非专业人员和弱势群体也可参与多模态大模型的设计、数据标注和测试。例如,多模态大模型设计的包容性可以保护人的自主权,因为医疗服务提供者的参与可以防止或减少服务提供者的自动化偏见。包容性设计可以促进世卫组织确保包容性和公平的指导原则,特别是如果设计团队能够根据年龄、能力、种族、民族、性倾向或性别认同给出不同观点。
世卫组织先前的指南还建议:“设计者和其他利益相关者应确保人工智能系统在设计上能够以必要的准确性和可靠性执行定义明确的任务,以提高医疗卫生系统的能力并促进患者的利益。设计者和其他利益相关者还应能够预测和理解潜在的次生结果”。甚至在开始开发多模态大模型之前,开发者就可以进行所谓的“事前剖析(pre-mortem)”,以考虑“假设的故障”,这样开发团队就可以反向设计这些意料之外的故障。这样,开发者就能识别已知和未知风险,并制定替代方案。通用基础模型的几位开发者提出的第二个建议是“红队”,即对模型或系统进行评估,找出可能导致不良行为(如多模态大模型提供有偏见的意见)的真实世界模拟中的薄弱环节,这样开发者就可以修正模型或系统,确保其可靠性和安全性。一家企业宣布,它将在2023年8月向黑客大会DEFCON会议提交最新多模态大模型,以便“专家对其能力进行进一步分析和压力测试”。
世卫组织先前的指南还建议,“设计者用于‘价值设计’的程序应参考并更新共识原则、最佳实践(如保护隐私的技术和技巧)、设计伦理标准以及不断发展的专业规范”。适当的设计可以限制未经授权披露输入多模态大模型的数据,或解决与多模态大模型的训练和使用有关的环境(碳和水)问题(见下文)。它还可以确保用户知道多模态大模型生成的内容是由人工智能系统而非人类生成的,以避免取代人类的认识权威中心地位。这种通知可以提醒用户、社区和社会,虽然多模态大模型可以生成有用的信息,但它不能替代人类的知识生产。
尊重环境因素的设计:如上所述,多模态大模型的一个主要问题是其碳足迹和水足迹。开发者应采取一切可能的措施减少能源消耗,如提高模型的能效,一些大型科技企业正在尝试这种方法。例如,一家企业开发了一种与外部数据库相结合的多模态大模型,该数据库比多模态大模型运行效率高,使用更多变量进行训练,其性能优于能效较低的多模态大模型。另一家企业正在试验一种不基于一个神经网络而是将变量分配给64个较小的神经网络的多模态大模型。经过训练,它可以只使用两个神经网络来完成每项任务,因此每次推理只使用一小部分变量。
提高能效的另一种方法是开发较小的多模态大模型,这些多模态大模型在较小的数据集上进行训练,因此在训练或运行时不需要那么多能源。较小的多模态大模型不仅可以减少能源消耗,还可以为较小的企业或实体开发多模态大模型提供机会,并提高输出结果的准确性。小型多模态大模型对于开发“专用多模态大模型”可能特别有用,例如专门用于医疗、科学研究和医学研究的多模态大模型。一些大型科技企业已经推出了几种这样的多模态大模型。
可以执行或制定一些现有的或潜在的法律或政策,以减少或避免通用基础模型设计和开发过程中的风险。此外,政府可以进行公共部门投资,促进或支持通用基础模型的伦理设计与开发。
规范数据使用的法律和政策:世卫组织支持应用和执行包括数据保护规则在内的标准,这些标准对如何使用和将如何使用数据来训练多模态大模型作出了规定。数据保护法通常以基于权利的方法为基础,包括数据处理监管标准,既保护个人权利,又规定公共和私人数据控制者和处理者的义务,还包括对侵害法定权利行为的制裁和补救措施。数据保护法已在150多个国家通过,这为包括多模态大模型在内的所有人工智能技术的发展奠定了坚实的基础。数据保护法的局限性在于,大多数数据保护法是在人工智能的生成及其他类型和用途出现之前颁布的,数据保护机构可能不愿意过于激进地适用这些法律,因为最初的法律可能并没有这样的意图。
一项应当执行的数据保护要求是,数据的收集和处理必须合法,尤其是用于训练多模态大模型的医疗数据。这通常需要数据主体提供有效的知情同意,同意将其数据用于所述目的。任何后续处理都应有法律依据,因为不能假定后续处理与最初的目的相一致。开发和发布多模态大模型的企业和其他实体已经受到审查,因为它们可能会使用在未获得知情同意的情况下获取的数据。开发越来越大的多模态大模型需要越来越大的数据集,这可能会导致开发者忽视法律要求,这也违反了世卫组织保护人类的自主性的指导原则。因此,世卫组织专家组建议各国政府“为使用健康数据和保护个人权利制定明确的数据保护法律法规,包括获得有意义的知情同意的权利”。
政府监督和规范用于训练多模态大模型的数据收集和使用的其他措施包括中国政府颁布的、于2023年8月生效的生成式人工智能法规。中国国家互联网信息办公室规定了几项义务,包括(i)提供者应采取有效措施,避免在选择训练数据时出现歧视和偏见;(ii)提供者应使用清晰的标签,并评估数据标签的质量;(iii)开发者应采取“有效措施”,实现数据的真实性、准确性、客观性和多样性目标。这些要求预计不会严格适用于只需要采取有效措施确保适当的数据质量的企业。这些措施只适用于向中国公众提供服务的企业。
与数据有关的立法规定可包括以下要求:描述用于训练基础模型的数据来源,以及使用受数据治理约束的数据,以确保这些数据具有适用性和偏见纠正的措施。
政府在设计和开发过程中可以采取的其他措施如下:
l目标产品简介:各国政府和国际机构可发布目标产品简介,说明拟用于卫生保健与药品领域的多模态大模型的偏好和特点,特别是如果政府打算购买此类技术用于政府管理的卫生系统。
l设计和开发标准与要求:政府可要求开发者确保通用基础模型的设计和开发在其整个生命周期内实现某些成果。其中可包括对模型的可预测性、可解释性、可追溯性、安全性和网络安全的要求。
l预认证程序:监管机构可引入法律义务并制定激励措施,要求并鼓励开发者通过包括预认证程序在内的措施,识别并避免伦理风险,如偏见或损害自主权。世卫组织先前的人工智能伦理指南提出建议,“政府监管机构应激励开发者在产品设计和开发过程中识别、监测和解决相关的安全和人权问题,并应将相关准则纳入预认证计划”。
l审计:政府可以对基础模型的初始发展阶段进行审计。一项建议提出了三类审计:对多模态大模型提供者的“治理审计”,对多模态大模型的审计,以及对建立在多模态大模型基础上的下游产品和服务的“应用审计”。其中,应用审计不适用于多模态大模型的开发阶段。可将审计纳入对卫生保健与药品领域多模态大模型的审评要求中(见下文)。为使审计有效,应对审计质量进行评估,以确保审计达到预期目的。
l环境足迹:政府可要求通用基础模型的开发者解决其碳足迹和水足迹问题。例如,政府可以要求开发者测量其能源消耗,减少训练过程中的能源消耗,并达到尚未定义的环境标准。
l对多模态大模型生成内容为“机器生成”予以明确告知:各国政府可要求开发者确保在部署通用基础模型时,向终端用户发出通知和提醒,说明内容是由机器而非人类生成的。
l各国政府还可以考虑要求或鼓励开发者在早期阶段对用于卫生保健与药品领域的人工智能算法或系统予以注册。早期注册可以鼓励发表负面结果,防止发表偏见或对结果过于乐观的解释,并促进有利于患者的知识整合。
为公众利益开发多模态大模型的公共基础设施:随着多模态大模型在卫生领域的应用不断扩大,包括算力和公共数据集,可以通过提供非营利或公共基础设施,鼓励开发符合伦理原则的多模态大模型数据集。公共、私营和非营利部门的开发者都可以利用这种基础设施,可以要求用户在获得使用权后遵守道德原则和符合价值观。它还有助于避免开发者对多模态大模型的独家控制,并在无法使用此类基础设施和资源的最大企业与开发者之间“公平竞争”。
受独立监督的政府可以建设基础设施,然后由开发者用来开发医疗多模态大模型。例如,一个由1000名学术志愿者、Hugging Face企业等组成的国际团队在法国政府的资助下,训练了一个名为BLOOM的多模态大模型,其中包含1,750亿个参数,训练这些参数的计算时间需要耗费700万美元的成本。
努力创造公平的竞争环境也适用于学术界及其资源劣势。加拿大政府的国家高级研究计算平台(Advanced Research Computing Platform)服务于该国的学术部门;中国政府批准了一个国家计算能力网络系统,使学者和其他人能够访问数据和算力;美国国家人工智能研究资源(National AI Research Resource)工作组“提议创建公共研究云和公共数据集”。欧洲民间团体也呼吁政府在建立所谓的“欧洲大型生成式模型”方面发挥更坚实的作用,政府将为此提供特定的人工智能计算、数据基础设施、科学和研究支持。
开源多模态大模型在整合伦理原则和应对已知风险方面的作用尚不确定。一般来说,通过使用开源软件设计人工智能技术或公开软件源代码,可以提高透明度和参与度。开源软件的贡献和反馈都是开放的,这使用户能够了解系统如何工作,发现潜在问题,并对软件进行扩展和调整。开源多模态大模型可为解决医疗多模态大模型的一些问题提供机会。由于开源模型既非专有也非封闭,它们允许较小的企业和实体(如非营利机构)以较低的成本设计多模态大模型。建立在开源模型基础上的多模态大模型可以接受严格审查,因为代码和数据都可供审查。用户社区的参与和监督有助于确保开源模型的长期稳健性。
但是,如果以前提供模型的大型科技企业选择不再继续提供模型,那么开源多模态大模型可能无法持续下去。大多数开源多模态大模型的开发都是基于Meta(前身为Facebook)有限发布的多模态大模型。自多模态大模型及其权重被泄露以来,该企业已表明其对开源方法的承诺,并指出开放性“会带来更好的产品、更快的创新和繁荣的市场,使Meta受益,也使许多其他……最终,开放是消除关于人工智能的恐惧的最佳良药”。然而,独立观察人士注意到,虽然Meta企业以非商业方式提供其多模态大模型,但其使用条款存在限制条件,因此其提供多模态大模型的方式并不符合开源原则 。
开发者很难满足使用开源模型监测其性能和结果的额外要求;然而,这些模型的益处并不能取代监管、避免危害,例如与使用开源模型相关的安全问题。开源模型容易被滥用,其漏洞也可能被用以网络攻击。一组研究人员最近发现,在开源人工智能系统上测试的方法规避了人工智能安全措施和保障措施,也可以绕过所谓封闭系统的保障措施。归根结底,开源模型是基于与其他多模态大模型相同的黑箱技术。
鼓励开源多模态大模型的一种方法是,政府要求利用政府资金或知识产权建立的基础模型能够被广泛接入,与政府要求开放政府资助的研究成果一样。政府还可以鼓励在公共设施中进行开源研发,包括在有公共监督的受控条件下进行下一代模型的研发。公共监督和参与可能比Meta泄露的允许任何人“下载并在MacBook M2上运行”的模型的新现实更好。
建议:
l设计应当或可以用于医疗、科学研究或医药领域的多模态大模型的开发者应考虑对程序员进行伦理认证或培训。这将使人工智能开发者符合医疗行业的要求,并增加对其产品和服务的信任。
l无论数据集的大小如何,开发者在处理这些数据之前都应进行“数据保护影响评估”,这将要求开发者评估数据处理操作侵害个人权利和自由的风险,以及对个人数据保护的影响。
l开发者应根据数据保护规则的最佳实践,对收集的数据进行多模态大模型训练。
l用于训练多模态大模型的所有数据集,无论是开发者直接收集的还是通过第三方收集的,都应保持更新并适合系统的使用环境。
l开发者应对用于训练模型的数据保持透明,以便对多模态大模型进行微调、使用多模态大模型开发医疗应用或直接使用多模态大模型的用户了解训练数据集的任何不足或不完整之处。
l开发者应向数据工作者支付维持生计的工资,并为他们提供心理健康服务和其他形式的咨询。开发者还应采取保障措施,保护工人免受任何困扰。各国政府应更新劳动标准,将这些福利扩展到所有数据工人,促进各企业之间的“公平竞争环境”,并确保这些劳动标准随着时间的推移得到维护和改进。
l开发者应确保多模态大模型不仅由科学家和工程师设计,潜在用户以及所有直接和间接的利益相关者,包括医疗提供者、科学研究人员、医疗保健专业人员和患者,应从人工智能开发的早期阶段就参与到结构化、包容性和透明的设计中来,并应有机会提出伦理问题、表达担忧和为可能采用的人工智能应用提供意见。这种意见可通过“人类监督协会”提供。
l开发者应确保多模态大模型的设计能以必要的准确性和可靠性执行明确界定的任务,以提高卫生系统的能力,促进患者的利益。开发者还应能够预测和了解潜在的次生结果。满足这些要求的技术包括“事前剖析”和“红队”。
l开发者用于“价值设计”的程序应参考并更新共识、最佳实践(如保护隐私的技术和技巧)、设计伦理标准和不断发展的专业规范,如披露多模态大模型生成的内容是由人工智能系统生成的。
l开发者应采取一切可能的措施减少能源消耗(如提高模型的能效)。
l各国政府应为医疗数据的使用制定适用于多模态大模型开发的强有力的、强制执行的数据保护法律法规。这些法律法规必须能够有效保护个人的权利,并为个人提供保护自身权利所需的工具,包括获得有意义的知情同意的权利。对于为医疗多模态大模型而收集和处理的数据,可能还需要更多的工具。
l各国政府和世卫组织等国际机构应发布“目标产品简介”,对医疗多模态大模型的偏好和特点进行界定,特别是如果政府预计最终会购买此类工具用于政府运营的卫生系统。
l政府应要求开发者确保通用基础模型的设计和开发能在产品生命周期内取得某些成果。其中可包括对模型的可预测性、可解释性、可追溯性、安全性和网络安全性的要求。
l监管机构应引入法律义务并建立激励机制,如预认证程序,要求并鼓励开发者识别并避免伦理风险,包括偏见或破坏自主性。
l各国政府应对基础模型开发的初始阶段进行审计。
l政府应要求通用基础模型的开发者解决通用基础模型的碳足迹和水足迹问题。
l各国政府应要求开发者确保在使用通用基础模型时,通知并提醒用户内容是由机器而非人类生成的。
l各国政府应考虑要求或制定激励措施,鼓励开发者在早期阶段对用于卫生保健与药品领域人工智能算法或系统予以注册。早期注册可鼓励发表负面结果,防止发表偏见或对结果的过度乐观解释,并可促进纳入对患者有益的知识。
l政府应投资或提供非营利或公共基础设施,包括算力和公共数据集,供公共、私营和非营利部门的开发者使用,要求用户遵守伦理原则和价值观,以换取访问的权利。
l各国政府应鼓励开发开源多模态大模型,要求利用政府资金或知识产权建立的基础模型能够被广泛访问,就像各国政府要求对政府资助的研究开放访问一样。各国政府应支持在公共设施中进行开源研发,包括在公共监督的受控条件下进行下一代模型的研发。
【未完待续,敬请期待】

编辑:商 丹
审核:吉鹏程
版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/kjbd-yiny/13176.html
