AI“偷声”真假难辨,谁决定“我的声音”?

 人参与 | 时间:2025-03-13 07:26:58

  随着算法的偷声不断进步,在高性能设备和高精度模型的真假帮助下,人工智能产生的难辨写春节的作文600字优秀满分声音已经从过去的“假”发展到“难以区分真假”,人工智能声音滥用现象不时发生。决定当一些企业在短视频平台上带货时,偷声通过人工智能模仿知名人士的真假声音编造内容,不仅严重误导了消费者,难辨而且对当事人产生了不利影响。决定

  如今,偷声写春节的作文600字优秀满分人工智能的真假声音在网络平台上随处可见。然而,难辨人工智能的决定滥用越来越突出。例如,偷声在社交平台上,真假使用人工智能技术模仿和恶搞名人的难辨短视频并不少见,其中一些视频包含了不当的评论,引起了社会的热烈讨论。另一个例子是,通过人工智能手段模拟熟人的声音进行欺诈和其他犯罪活动,很容易放下警惕。因此,人工智能技术必须依法规范,严厉打击人工智能声音滥用等违法行为。

  作为一种生物识别特征,个人声纹信息具有很高的可识别性。根据《个人信息保护法》的规定,声纹信息被归类为敏感的个人信息,受到严格保护。随着人工智能技术的日益成熟,从收集到的声音样本中准确提取频率、音色、音调、语速等特征,转化为复杂的数学模型,可以产生高度逼真的声音。也就是说,只要当事人有少量的声音材料,就能快速实现声音的“AI克隆”,产生与当事人真假难辨的声音。

  显然,AI“偷声”乱象迫切需要规范和整顿。民法典第一千零二十三条规定,对自然人声音的保护,应当参照适用肖像权保护的有关规定。在人工智能生成声音的过程中,每个环节都可能涉及不同主体的权益,包括声音样本的采集、使用、算法的研发和应用。因此,有关部门应跟上《时代》的步伐,完善声音权益保护的法律体系,完善人工智能克隆技术的法律规定,明确侵权行为的定义和责任。

  在治理层面,应采取多种措施。首先,平台应认真履行监督职责,建立健全人工智能声音审计和侵权报告机制,及时发现和拦截侵权、虚假、违法等不良内容;其次,有关部门应加强打击人工智能技术欺诈等违法犯罪行为,形成更完善的正常治理机制;第三,个人还必须加强对个人生物特征信息的保护意识。

  谁决定“我的声音”?这是一个不应该有第二个答案的问题。期待各方加强合作,遏制人工智能“窃取声音”的步伐,共同保持网络世界的安全底线。

  丁家发《工人日报》(2025年2月26日) 05版)。

顶: 1387踩: 561