您的位置 首页 > AI技术

​小心!“眼见非实”的AI技术


​小心!“眼见非实”的AI技术

继语言模型ChatGPT、图像模型Dall-E之后,美国开放人工智能研究中心OpenAI于2024年2月15日,发布了首个视频生成模型---Sora。该模型通过接收简短的文本指令,即可迅速生成60秒效果震撼的高质量短视频。震撼之余,也有部分网友表达了“以前不相信是真的,现在不相信是假的”“未来该如何避免虚假视频充斥我们的生活”等深深的担忧。

其实,网友的顾虑不无道理。随着AI技术的飞速发展,伪造内容的数量和逼真程度也在不断增加。这提醒我们,在面对AI技术带来无限机遇的同时,也不能忽视“眼见非实”等方面的问题。

例如,“AI换脸”作为典型的AI技术应用,通过软件在精准识别视频中的人脸图像后,提取出眼睛、鼻子、嘴巴等关键面部特征,并凭借其深度合成技术将这些特征与目标人脸图像进行匹配、替换、融合。在此基础上,通过背景环境的渲染与合成后的声音添加,生成具有高逼真度的虚假换脸视频。“AI换脸”技术不仅提升了生成视频的逼真度、清晰度、流畅度和自然度,更将人们从真实场景中抽离出来。不仅如此,该技术甚至能将一张照片中的脸庞“嫁接”到任何场景中,说一些不曾说过的话,做一些不曾做过的动作等,彻底颠覆了“人脸即真实”的传统认知和社会共识。

随着“AI换脸”的技术门槛越来越低,真与假的界限愈发模糊,甚至成为一些不法分子牟利的工具,如传播虚假信息、侵犯个人隐私、盗刷银行卡、进行网络诈骗以及制作涉黄视频等恶劣行为,严重影响了公众生活和社会秩序。近期,香港警方就披露了一起多人“AI换脸”诈骗案,涉案金额高达2亿港元。这起案件中只有受害人是“真人”,其他“人员”都是经过“AI换脸”后的诈骗人员。

面对AI技术的井喷式发展,我们需要及时采取一系列切实有效的防范措施,以确保AI技术在合法、合规的轨道上健康发展。一是要加快推进相关法规和标准的制定和落地。国家应制定针对AI技术的法律法规,明确A技术的合法和非法使用范围,以及相应的法律责任和处罚。目前,我国已经出台了《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》,明确了深度合成技术和生成式人工智能服务的使用规范。二是设立专门的监管机构。国家应建立具备专业能力的监管机构,负责监督和管理AI技术的发展和应用,并评估AI技术的风险,确保其合法、安全和可控。三是提高公众的安全意识。公众自身应加强对AI技术的认知和了解,提高风险防范意识,做好个人信息保护。

展望未来,AI技术将会逐渐融入到生活的方方面面,我们不能陷入AI恐怖论或万能论的极端观点,而应以理性和科学的态度看待新技术的发展,鼓励和支持A技术的正确使用,规避和防范AI技术的非法滥用,特别要避免由此引发的国家安全或个人隐私安全问题。


本站涵盖的内容、图片、视频等数据,部分未能与原作者取得联系。若涉及版权问题,请及时通知我们并提供相关证明材料,我们将及时予以删除!谢谢大家的理解与支持!

Copyright © 2023