作者:高文(国家科技伦理委员会委员、中国工程院院士)
前不久,科技部、教育部、工业和信息化部等十部门印发《科技伦理审查办法(试行)》(以下简称《审查办法》),这是我国构建科技伦理治理体系的里程碑文件,也是我国推进科技伦理治理制度体系建设的重要开篇。
自1956年达特茅斯会议提出“人工智能”这一概念以来,人工智能已历经了3次变革,逐步从系统级的知识推理向深度学习发展。当前,以ChatGPT为代表的自然语言处理,助推了通用人工智能(AGI)的演进,也再一次将人工智能技术推向了飞速发展的黄金期,使其迅速成为新的重要使能技术,被广泛应用于经济社会的各个领域,带来新的产品和服务。然而,随着人工智能技术的广泛应用,由此可能引发的AI技术滥用、个人隐私侵犯、算法歧视、伦理道德冲击等诸多科技伦理问题已成为国际社会关注的焦点,亟待认真应对、规范治理。
在通用人工智能掀起全球热潮的同时,《审查办法》恰逢其时地为我国人工智能的健康发展系上了“安全带”,也将有力促进我国加快构建良性健康的数字经济社会秩序。
《审查办法》以“促进负责任创新”为核心理念,以强化科技伦理管理主体责任为抓手,指导开展问题导向的科技伦理治理,推动构建一套发展与安全并重、创新与伦理并行的科技监管与治理机制。在推进这套机制落地的过程中,要兼顾技术的创新发展与安全监管,我认为,有几点工作值得高度重视。
一是创新主体要自觉压实科技伦理管理主体责任,将科技伦理要求贯穿科技活动全过程。科技伦理治理是科技创新能力和水平的重要体现,直接影响科技创新的质量和效率。随着人工智能等新兴数字技术的广泛应用,其带来的伦理风险也愈发复杂多变。创新主体应结合《审查办法》要求,加快优化组织架构和管理流程,构建权责明晰的科技伦理管理体系,建立伦理风险预判机制,在设计、研发和应用等科技活动的各个阶段,要持续地识别、分析与管理伦理风险。同时,压实科技创新管理责任,责任主体既要对科研目标负责,也要对科技伦理负责,提高科研人员的伦理意识,大力宣贯科技伦理道德教育,确保责任主体始终秉持科技向善理念,践行负责任创新。
二是面向科技伦理治理持续开展研究,以技术创新应对科技伦理治理的问题与挑战。科技伦理治理应始终与科研技术的创新发展紧密结合、同频共振,用技术创新解决技术发展中的问题。创新主体应借助技术手段辅助开展科技伦理审查与监管,通过研发或使用新的技术工具、创新技术方法,重点解决技术在公平性、安全性、可解释性、隐私保护等方面面临的挑战。目前,人工智能大模型相关应用加速落地,然而,在人工智能大模型的数据清洗、敏感词判别、合规使用以及基于国外企业和机构提供的大模型底座热启动等方面仍存在不少漏洞和风险,如不加以规范治理,将可能对人类行为、人身健康、社会意识形态等方面造成危害,更有甚者,将严重威胁我国科技创新生态的有序发展。
三是加强国际科技治理合作,把握全球科技治理研究动态,谋划中国科技治理合理路径。科技价值观始终是国际科技治理的核心议题,由于政治体制和民族文化等各不相同,各国科技伦理治理的理念与路线也不尽相同。我们既要积极拥抱国际科技创新网络,在科技治理手段上与国际规范相衔接,推动科技更好地增进人类福祉、为人类社会发展服务。同时,也要立足我国国情,探索形成具有中国特色的治理方案,灵活运用清单动态调整机制,随时准备应对新问题、新挑战。此外,要积极发起全球科技伦理治理交流与对话,大力宣传中国科技伦理治理的创新实践,进一步增强我国科技创新的传播力和影响力。
在可预见的未来,智能技术向“强人工智能”逐步演进,科学智能(AI for Science)、具身智能等新方向也不断涌现,智能技术、数字技术对经济社会的作用与影响将会越来越突出,这一过程必将伴随着成倍增长的技术挑战,科技伦理治理问题也将变得更加突出、更加紧迫。总之,科技伦理治理是一项复杂的系统性工程,既需要政府、学界、产业界等多方通力合作,也需要科技工作者的潜心研究和不懈努力,相信在不久的将来我们会在科技伦理治理方面取得更丰硕的成果。