前沿分享 | 警惕AI生成的医学虚假信息

分享者导读

本文探讨了人工智能(AI)生成的医学虚假信息对公众健康的危害,以及如何通过联邦贸易委员会(FTC)对其进行监管。随着生成式AI技术的进步,如大语言模型(LLMs)和深度伪造(deepfakes),生成的虚假医学信息可能会误导公众,甚至危及生命。文章提出了利用FTC现有的法规框架,特别是《联邦贸易委员会法》第5条,来打击这种虚假信息的传播。随着AI的发展,面对AI生成的医学虚假信息,呼吁我国有关部门应该加强监管,完善相关法律,严厉打击该行为,为大众健康保驾护航。

引言

AI技术在医学领域有广泛应用,但也带来了潜在的风险。AI生成的内容看似权威,但可能包含误导性或虚假的医学建议。通过深度伪造技术,AI不仅能够模拟专家的语言风格,还能生成以假乱真的影像,冒充医生或医疗权威,传播未经证实的疗法。医学虚假信息不仅浪费医疗资源,甚至可能导致广泛的健康危害和社会不稳定。

背景

近年来,AI技术的快速发展使得其在医疗领域的应用潜力巨大,但与此同时,医学虚假信息问题日益突出。大语言模型(如OpenAI的ChatGPT)能够快速生成内容,包括健康建议和医疗信息。然而,研究发现,AI在生成内容时经常提供错误或危险的健康建议。例如,有AI建议通过吸烟减肥,或传播极端的节食方法。因此,控制和规范AI生成的医学内容已成为当务之急。

作者观点

AI生成医学虚假信息的危害: AI生成的医学虚假信息具有高度仿真性,容易误导公众,特别是医疗建议。一些商业实体利用AI冒充医生或医疗专家,推广未经验证的治疗方案,严重威胁公共健康。 2023年,有研究者对6种流行的AI聊天机器人和图像生成器进行测试,这些AI工具在41%的测试案例中提供了危险的健康虚假信息; 另一项研究对3035名参与者进行了测试,结果显示,27%-50%的受试者无法区分AI生成的深度伪造内容和真实内容。

监管建议:文章建议 基于FTC的《联邦贸易委员会法》第5条对AI生成的医学虚假信息进行监管,该法律允许FTC阻止“欺诈性或不公平的商业行为”,包括利用AI生成的医学信息误导消费者。对于冒充医疗专家的商业行为,FTC应加大处罚力度。此外,可通过修订FTC的“冒充规则”,将通过AI生成的医学虚假信息视为冒充专业人士,从而扩展其适用范围。

文章亮点

揭示了AI在医学信息领域的潜在风险, 特别是当AI生成的内容被用于传播虚假或误导性医疗建议时,对公众健康的威胁尤为突出。

提出了具体的监管建议, 利用FTC现有的法律框架,并通过扩展现有法规,遏制AI生成的虚假医学信息。

结合了实际案例, 例如,AI建议通过吸烟减肥的错误信息,显示了该问题的紧迫性和严重性。

文献来源:

Haupt CE, Marks M. FTC Regulation of AI-Generated Medical Disinformation. JAMA. Published online October 16, 2024. doi:10.1001/jama.2024.19971

文献链接:

https://jamanetwork.com/journals/jama/fullarticle/2825056?guestAccessKey=4eeb3e07-8b4d-4829-8fad-dc3aa2abf8a4&utm_source=silverchair&utm_medium=email&utm_campaign=article_alert-jama&utm_content=olf&utm_term=101624&adv=

分享者简介

张 俊
重庆大学智能肿瘤学教育部医药基础研究创新中心2024级生物与医药硕士

编辑|曾海蓉 李劲

THE END