攻坚AI治理的“最后一公里”,答好AI风险防控必答题
时间:2025-04-10来源:未知 作者:acebm 点击: 次
人工智能时代,随着AI应用逐渐渗入社会与个人生活的方方面面,人们在享受AI技术带来的各种便利同时,AI幻觉、深度伪造、数字人犯罪、个人隐私等数据安全也逐渐成为广大网友最担心之事。
尤其是伴随着大数据的滥觞,用户数据泄露事件频发,个人信息被滥用的风险日渐加剧,用户叫苦不迭,如何为用户的数据安全加一道“防盗墙”成为人工智能时代的必答题,这就需要加强对AI技术及应用领域的系统治理,攻坚AI治理的“最后一公里”。
王牌智库认为,攻坚AI治理“最后一公里”,政府需扮演“智慧舵手”角色,企业要超越“合规即免责”的被动思维,公众参与则需突破“数据劳工”的困境,与此同时,国际间的协同同样关键。
一、重视AI的系统性风险
人工智能作为新一轮科技革命和产业变革的重要驱动力量,是推动数字治理变革的关键动力。当ChatGPT、Deepseek掀起全球生成式AI浪潮,当自动驾驶汽车驶入城市街头,当AI医生开始参与临床诊断,人们正以空前的速度拥抱智能文明。但AI在推进社会变革的同时也带来了一系列不容忽视的社会问题,如伦理困境、算法黑箱、数据滥用等。具体来讲:
一是深度伪造难辨真伪。AI使内容生产更加快捷、简单,一些心怀不轨的人则通过AI技术制作虚假新闻引发社会恐慌、用AI复活逝者赚取流量、用数字人换脸技术实施诈骗,扰乱公共秩序,触碰法律和道德底线。
二是隐私泄漏危机四伏。随着AI技术的发展,语音助手、智能家居等“飞入寻常百姓家”,但在使用中,一些应用系统会过度采集用户数据,包括个人隐私信息,增加隐私泄漏风险。例如,滴滴公司曾被爆违法处理个人信息647.09亿条,包括人脸识别、身份证号等敏感个人信息。另外,企业在使用AI工具寻求答案时,AI默认将提问的信息存入学习库,存在数据泄漏的风险,可能会给企业带来难以估量的损失。此前韩国三星公司就发生过此类事件,导致机密信息被盗取。
三是算法加剧社会歧视。由于AI系统的训练数据通常来自人类社会,如果“喂”给系统的训练数据带有社会和文化偏见,将导致算法对特定群体做出不公平的判断。此外,如果算法设计者存在主观偏见,将制作出自带歧视“基因”的AI工具,而这一“暗箱操作”具有隐蔽性,很难被发现,将加剧社会不公平、不平等现象。
四是AI侵权难以认定。AI企业为了训练大模型需要大量数据,而这些数据可能包含已经发布的作品,如果这些作品是在未经许可或未付款的情况下获取的,将侵犯创作者的合法权益。
五是引发学术诚信危机。随着Deepseek、百度AI等生成式AI工具的普及,大学生过度依赖AI,滋生思考惰性,简单地将生成的文本拼凑成论文,引发学术不端,大大降低了论文的学术价值和创新价值。可以预见,如果不对此类现象加以管控,学术诚信危机将影响各类学科研究,从长远看也不利于个人的学术成长。
可以说,AI的技术革命是一把“双刃剑”,尤其是面对AI滋生的新问题挑战,AI治理、AI应用监管的逻辑也在发生变化,这是必须面对的挑战。应构建高效联动的治理框架,将问题发现与应对措施落到治理实践中,促进AI产业健康发展。
01规划AI产业发展路径
立法划定“红线”。积极推进AI立法工作,针对AI发展中的权责不清、数据安全漏洞、技术滥用、内容侵权等问题,集思广益探讨AI立法草案,尽快发布有统领性的上位法,明确AI技术的使用边界、数据保护标准、算法透明度等,为AI健康发展提供法律保障,为用户合理维权提供法律支持。
制度规范发展。发布全国性AI产业标准化建设指南,针对工业、金融、医药、教育等各行业制定具体的技术要求和应用指南,形成统一的行业共识。对AI产业的基础共性标准、基础支撑标准、关键技术标准、安全管理标准等进行明确规定,为企业提供预见性指导,维护产业生态环境。完善学术诚信制度,通过制度约束,提高研究人员学术道德意识。
监管推动落实。建立专门的AI监管机构,负责对AI企业的技术研发、应用进行全程监督,及时发现并纠正违反法律和产业规定的行为,了解并分析产业内暴露出的最新风险隐患,修补可能出现的“漏洞”。引导企业加强自我监管,建立内部审查机制。
02提升规范治理质效
提升企业透明度。AI系统开发者应适度公开AI算法的基本原理、决策逻辑、数据来源及可能对用户产生的影响,确保算法透明得到落实,有效避免企业的“黑箱操作”,增强用户对AI工具的信任。
强化行业自律。组建AI产业协会,构建行业信用体系,并吸纳金融、医疗、制造等领域的企业、高校、科研院所加入,制定协会公约,促进企业自律,维护良性生态。定期组织企业开展交流活动,打造AI技术、成果的交流与共享平台,促进产业协同进步。
加强技术研发。AI系统开发者可加强研发,解决目前AI应用领域存在的学术造假、算法歧视等“痛点”问题。通过技术升级精准识别被篡改后的文字和图片,打击学术不端和伪造行为,规范AI技术应用。优化算法设计,确保算法本身没有设计歧视,并使用一些公平性指标来评估AI模型的公平性。
03理性拥抱AI
积极拥抱AI。AI时代是社会发展的必然趋势,如果不想被社会淘汰,我们应该积极拥抱AI,接受新事物,尝试新技术,为生活工作提供便利,并及时反馈自己的使用体验和改进建议,通过有效的反馈,促进AI健康发展。
合理使用AI。对于AI我们既不能弃之不用,也不能过于依赖,要认识到AI只是工具,绝不能代替个人的思考,不能养成靠“拐杖”行走的习惯,还应专注于提升自身能力,合理使用AI工具,不可把AI作为研究成果,杜绝学术造假行为。
理性辨别AI。在使用AI软件之前要详细了解隐私政策,确保自己的隐私安全、数据安全。对于AI生成的信息要有辨别能力,不轻信、不传谣,对于通过网络进行的钱财交易要高度警惕,防止AI欺诈。
治理AI,既要“放得开”,又要“收得住”,首要的任务是让AI治理跟上技术更新的节奏。
毕竟,当下,人工智能已加速赋能千行百业,渗透到教育、医疗、政务、金融等场景,人们AI应用的“高逼格”场景产生了更多期待。怎样应对AI不可控、被滥用、数据泄露、造假成本低等风险已经是重若千钧,因此,必须在推广应用中加固AI“安全护栏”。王牌智库认为,可以从五方面着力:
AI技术已经成为全球科技进步的新动能和主导力量,对AI技术及应用,要一分为二看待,既需要保持宽容度,又需要妥善处理好AI技术创新与治理之间持续升级的矛盾。
高质量数据是AI应用大规模落地的重要支撑,构建一个完善而成熟的数据市场也十分重要,应根据实际情况,建立符合自身需要的数据监管方案与路径,建立技术演化预警系统,让AI真正成为推动社会进步的普惠力量。