AI深度伪造技术引发诈骗担忧,明星和公司成受害者
【#利用AI深度伪造实施的诈骗案或进一步增加# #知名明星和跨国公司成为AI深度伪造受害者#】生成式人工智能(GAI)时代,似乎没有什么不能被颠覆,连人们一直坚信不疑的“眼见为实”“有图有真相”也逐渐成为空话。今年春节期间,OpenAI发布的文生视频模型Sora横空出世,被认为是“AGI(人工通用智能)的重要里程碑”,将颠覆视频内容生成方式。Sora的出现,振奋科技圈的同时也衍生出了担忧的情绪。有专家称,这类技术可能会导致“深度伪造”视频增多,让人难以识别真伪。OpenAI自己也承认,无法预测人们使用Sora的所有有益方式,也无法预测人们滥用它的所有方式。
在Sora诞生之前,AI“深度伪造”技术已经在海内外引发担忧,知名明星与跨国公司相继成为AI“深度伪造”的受害者。今年1月底,明星泰勒·斯威夫特(Taylor Swift,中文绰号“霉霉”)大量虚假“不雅照片”在社交平台上传播。此事震动美国白宫,并掀起一波关于人工智能的担忧。2月4日,据香港文汇报报道,有诈骗集团利用AI“深度伪造”技术向一家跨国公司的香港分公司实施诈骗,并成功骗走2亿港元,这也是香港迄今为止损失最大的“换脸”案例。
诸如此类的案例越来越多,人工智能带来的新型焦虑正在形成。瑞莱智慧Real AI联合创始人&算法科学家萧子豪在接受《每日经济新闻》记者采访时就表示,他们判断,2024年这种利用AI“深度伪造”技术实施的诈骗案件会进一步增加,因为“深度伪造”技术工程化落地速度很快,“即使是不了解技术的普通人,也能够制作‘深度伪造’的内容”。“深度伪造”一词译自英文“Deepfake”(deep learning和fake的组合),现亦称深度合成(Deep Synthesis)。“Deepfake”诞生于美国。2017年,美国一名为Deepfake的用户在社交网站Reddit上发布了一则与知名演员有关的伪造视频,这项技术随后被迅速应用到多个领域,包括色情、政治、广告、娱乐等。(每日经济新闻)
特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
网址:AI深度伪造技术引发诈骗担忧,明星和公司成受害者 http://c.mxgxt.com/news/view/927667
相关内容
惊动美国白宫、有公司被骗2亿港元,AI “深度伪造”的罪与罚以假乱真的AI诈骗,如何防范?
担心AI造假怎么办?首个AI实时鉴伪工具来了
新华视点|“AI诈骗潮”真的要来了?
深度伪造技术对新闻业的影响及其治理
AI复活明星引争议!技术与伦理生成式AI如何重塑数字克隆的边界?
风险提示|先声音再视频 所谓“熟人”来敲门?——“AI换脸”诈骗乱象风险预警
【知识科普】“AI换脸”诈骗,怎么防?
被“伪富豪”欺骗感情的女明星,不只王丽坤一个 女星成诈骗案受害者
警惕!黄百鸣紧急声明:AI假冒成名人代言药膏,谨防上当受骗!