王牌专题研究 NEWS

攻坚AI治理的“最后一公里”,答好AI风险防控必答题

时间:2025-04-10来源:未知 作者:acebm 点击:
编者按
 

人工智能时代,随着AI应用逐渐渗入社会与个人生活的方方面面,人们在享受AI技术带来的各种便利同时,AI幻觉、深度伪造、数字人犯罪、个人隐私等数据安全也逐渐成为广大网友最担心之事。

尤其是伴随着大数据的滥觞,用户数据泄露事件频发,个人信息被滥用的风险日渐加剧,用户叫苦不迭,如何为用户的数据安全加一道“防盗墙”成为人工智能时代的必答题,这就需要加强对AI技术及应用领域的系统治理,攻坚AI治理的“最后一公里”。

王牌智库认为,攻坚AI治理“最后一公里”,政府需扮演“智慧舵手”角色,企业要超越“合规即免责”的被动思维,公众参与则需突破“数据劳工”的困境,与此同时,国际间的协同同样关键。

一、重视AI的系统性风险

人工智能作为新一轮科技革命和产业变革的重要驱动力量,是推动数字治理变革的关键动力。当ChatGPT、Deepseek掀起全球生成式AI浪潮,当自动驾驶汽车驶入城市街头,当AI医生开始参与临床诊断,人们正以空前的速度拥抱智能文明。但AI在推进社会变革的同时也带来了一系列不容忽视的社会问题,如伦理困境、算法黑箱、数据滥用等。具体来讲:

一是深度伪造难辨真伪。AI使内容生产更加快捷、简单,一些心怀不轨的人则通过AI技术制作虚假新闻引发社会恐慌、用AI复活逝者赚取流量、用数字人换脸技术实施诈骗,扰乱公共秩序,触碰法律和道德底线。

二是隐私泄漏危机四伏。随着AI技术的发展,语音助手、智能家居等“飞入寻常百姓家”,但在使用中,一些应用系统会过度采集用户数据,包括个人隐私信息,增加隐私泄漏风险。例如,滴滴公司曾被爆违法处理个人信息647.09亿条,包括人脸识别、身份证号等敏感个人信息。另外,企业在使用AI工具寻求答案时,AI默认将提问的信息存入学习库,存在数据泄漏的风险,可能会给企业带来难以估量的损失。此前韩国三星公司就发生过此类事件,导致机密信息被盗取。

三是算法加剧社会歧视。由于AI系统的训练数据通常来自人类社会,如果“喂”给系统的训练数据带有社会和文化偏见,将导致算法对特定群体做出不公平的判断。此外,如果算法设计者存在主观偏见,将制作出自带歧视“基因”的AI工具,而这一“暗箱操作”具有隐蔽性,很难被发现,将加剧社会不公平、不平等现象。

四是AI侵权难以认定。AI企业为了训练大模型需要大量数据,而这些数据可能包含已经发布的作品,如果这些作品是在未经许可或未付款的情况下获取的,将侵犯创作者的合法权益。

五是引发学术诚信危机。随着Deepseek、百度AI等生成式AI工具的普及,大学生过度依赖AI,滋生思考惰性,简单地将生成的文本拼凑成论文,引发学术不端,大大降低了论文的学术价值和创新价值。可以预见,如果不对此类现象加以管控,学术诚信危机将影响各类学科研究,从长远看也不利于个人的学术成长。

二、规范AI的冷思考

可以说,AI的技术革命是一把“双刃剑”,尤其是面对AI滋生的新问题挑战,AI治理、AI应用监管的逻辑也在发生变化,这是必须面对的挑战。应构建高效联动的治理框架,将问题发现与应对措施落到治理实践中,促进AI产业健康发展。
01规划AI产业发展路径

立法划定“红线”。积极推进AI立法工作,针对AI发展中的权责不清、数据安全漏洞、技术滥用、内容侵权等问题,集思广益探讨AI立法草案,尽快发布有统领性的上位法,明确AI技术的使用边界、数据保护标准、算法透明度等,为AI健康发展提供法律保障,为用户合理维权提供法律支持。

制度规范发展。发布全国性AI产业标准化建设指南,针对工业、金融、医药、教育等各行业制定具体的技术要求和应用指南,形成统一的行业共识。对AI产业的基础共性标准、基础支撑标准、关键技术标准、安全管理标准等进行明确规定,为企业提供预见性指导,维护产业生态环境。完善学术诚信制度,通过制度约束,提高研究人员学术道德意识。

监管推动落实。建立专门的AI监管机构,负责对AI企业的技术研发、应用进行全程监督,及时发现并纠正违反法律和产业规定的行为,了解并分析产业内暴露出的最新风险隐患,修补可能出现的“漏洞”。引导企业加强自我监管,建立内部审查机制。

02提升规范治理质效

提升企业透明度。AI系统开发者应适度公开AI算法的基本原理、决策逻辑、数据来源及可能对用户产生的影响,确保算法透明得到落实,有效避免企业的“黑箱操作”,增强用户对AI工具的信任。

强化行业自律。组建AI产业协会,构建行业信用体系,并吸纳金融、医疗、制造等领域的企业、高校、科研院所加入,制定协会公约,促进企业自律,维护良性生态。定期组织企业开展交流活动,打造AI技术、成果的交流与共享平台,促进产业协同进步。

加强技术研发。AI系统开发者可加强研发,解决目前AI应用领域存在的学术造假、算法歧视等“痛点”问题。通过技术升级精准识别被篡改后的文字和图片,打击学术不端和伪造行为,规范AI技术应用。优化算法设计,确保算法本身没有设计歧视,并使用一些公平性指标来评估AI模型的公平性。

03理性拥抱AI

积极拥抱AI。AI时代是社会发展的必然趋势,如果不想被社会淘汰,我们应该积极拥抱AI,接受新事物,尝试新技术,为生活工作提供便利,并及时反馈自己的使用体验和改进建议,通过有效的反馈,促进AI健康发展。

合理使用AI。对于AI我们既不能弃之不用,也不能过于依赖,要认识到AI只是工具,绝不能代替个人的思考,不能养成靠“拐杖”行走的习惯,还应专注于提升自身能力,合理使用AI工具,不可把AI作为研究成果,杜绝学术造假行为。

理性辨别AI。在使用AI软件之前要详细了解隐私政策,确保自己的隐私安全、数据安全。对于AI生成的信息要有辨别能力,不轻信、不传谣,对于通过网络进行的钱财交易要高度警惕,防止AI欺诈。

三、治理AI须跟上AI技术节奏

治理AI,既要“放得开”,又要“收得住”,首要的任务是让AI治理跟上技术更新的节奏。

毕竟,当下,人工智能已加速赋能千行百业,渗透到教育、医疗、政务、金融等场景,人们AI应用的“高逼格”场景产生了更多期待。怎样应对AI不可控、被滥用、数据泄露、造假成本低等风险已经是重若千钧,因此,必须在推广应用中加固AI“安全护栏”。王牌智库认为,可以从五方面着力:

01
构建敏捷的治理体系
强化动态立法机制,允许AI应用在可控环境中测试,快速积累监管经验,采用"监管试点-反馈-修订"循环,缩短政策制定周期,同时设立AI治理委员会,整合科技、法律、伦理专家,实现技术评估与政策制定的无缝衔接,建立数据共享平台,打破部门壁垒,提升治理效率。
02
用技术监管技术
开发算法审计系统,自动检测风险,强制要求AI系统提供可解释性报告,明确决策逻辑,同时,建立并持续完善实时监控与预警系统,实时追踪算法行为,提前识别技术滥用,规避风险。
03
建立技术使用的价值底线
组建包含技术专家、社会学家、公众代表的伦理委员会,开展公众咨询,确保政策符合社会价值观。同时,明确AI禁止领域,如深度伪造等,推动企业签署伦理承诺书,将伦理责任纳入商业考核。
04
构建技术治理共同体
统一技术规范,为AI创建国际统一的标准,同时建立全球数据共享机制,协调不同国家的数据监管政策,推动跨境执法合作,打击跨国AI犯罪。
05
从"治理"到"共治"
将AI治理课程纳入高等教育和社会教育,建立动态立法机制,开发技术嵌入式监管工具,建立"开发者-部署者-使用者"三级责任链,采用区块链存证技术实现全流程可追溯,推行"技术文档备案+核心代码抽查"等让算法透明化,便于责任认定。
 
结语

AI技术已经成为全球科技进步的新动能和主导力量,对AI技术及应用,要一分为二看待,既需要保持宽容度,又需要妥善处理好AI技术创新与治理之间持续升级的矛盾。

高质量数据是AI应用大规模落地的重要支撑,构建一个完善而成熟的数据市场也十分重要,应根据实际情况,建立符合自身需要的数据监管方案与路径,建立技术演化预警系统,让AI真正成为推动社会进步的普惠力量。

(作者:王牌智库首席专家、董事长 上官同君)


上一篇:10万亿中央转移支付,都被谁拿走了?

下一篇:权力脱缰的病灶在“智库缺位”,“红蓝黑禁令”折射县域治理之痛丨王牌锐评