近年来,AI技术迅猛进步。它既拥有改变众多行业的巨大潜力,同时也引发了隐私泄露和就业问题等风险。这种矛盾的特性,让全球各国在推动创新和保障安全之间不断权衡,以实现对AI发展的监管。
潜在与风险并存的AI技术
AI技术的力量不容小觑。拿医疗来说,2023年,有些地方的医院开始用AI来诊断疾病,准确率越来越高,诊断速度也因此加快。在工业领域,AI智能调度物流和生产线,也帮企业节省了成本。但AI也存在风险。比如,AI算法可能被恶意使用,导致用户信息大量泄露。还有些AI决策程序,决策过程复杂,可能对某些群体产生不公平对待。
美国的AI监管特点
美国在AI监管方面有自己的特点。首先,政府发布的行政命令特别强调AI领域涉及的安全问题,尤其是与国家安全相关的内容。例如,在军事AI项目上,保障AI辅助作战系统的安全性显得尤为关键。其次,美国各州在AI监管方面的行动并不一致。以2023年为例,加利福尼亚州已开始积极推动相关立法,而其他州由于各种原因,进展相对缓慢。这种情况可能导致企业在跨州运营时遇到遵守法规的困难。
欧盟AI法案及内部争议
欧盟的AI法规采用了特殊的监管策略。这种策略是全方位、跨领域、以风险为依据的。在法案的草案阶段,各国间产生了分歧。比如,法国和德国就主张,为了维护本国AI企业的竞争力,不应全面监管基础AI模型,而是期望通过非强制性的行为准则来自我约束。最终,欧盟委员会做出了让步,对基础模型实施了分级的监管措施,这导致了整体监管力度有所降低。
中国的AI监管方式
中国实行的是一种分散、垂直、循环往复的监管模式。在我国的互联网领域,众多企业正运用AI技术进行业务拓展。相关部门会根据企业具体业务和规模实施个性化监管,而且这种监管会随着AI技术的进步而不断调整。企业受到垂直部门的监管,各类业务实行分级管理,这样的做法有利于应对AI技术快速发展和不断变化的特点。
全球机制现状及局限
2023年,全球范围内尚未建立起针对人工智能的实质性监管或治理体系,大多只是非约束性的指导原则。这些现有机制因AI技术的特性而难以发挥其应有的作用。AI技术更新迭代迅速,比如AI算法可能几个月就会有一次更新。而且,AI的威胁形式不明确,它可能被用于网络攻击,但攻击模式难以预测,这使得传统的监管逻辑难以适应AI技术。
全球AI监管合作展望
由于AI技术跨越国界传播等原因,国际间的监管协作显得尤为重要。有专家建议,美国应通过美欧贸易与技术委员会来增强与欧盟的监管协作,并统一监管标准。同时,也有意见主张美欧与中国应增进交流,互相借鉴监管经验。毕竟,全球范围内形成的统一监管体系有助于弥补当前监管体系不完善所产生的问题和风险。