(solstock/盖蒂图片社)
chatgpt 是否曾让您有一种正在与另一个人互动的怪异感觉?
人工智能 (ai) 已经达到了令人震惊的现实水平,某些工具甚至可以欺骗人们,让他们认为自己正在与另一个人互动。
诡异的事情还不止于此。在今天发表在《心理科学》杂志上的一项研究中,我们发现由流行的 stylegan2 算法生成的白脸图像看起来比真实人脸更“人”。
人工智能创造超现实的面孔
在我们的研究中,我们向 124 名参与者展示了许多不同白人面孔的照片,并要求他们判断每张面孔是真实的还是人工智能生成的。
一半的照片是真实的面孔,一半是人工智能生成的。如果参与者随机猜测,我们预计他们大约有一半的情况是正确的——就像抛硬币,有一半的情况是反面的。
相反,参与者犯了系统性错误,并且更有可能认为人工智能生成的面孔是真实的。平均而言,人们将大约三分之二的人工智能生成的面孔标记为人类。
这些结果表明人工智能生成的面孔看起来比实际面孔更真实;我们将这种效果称为“超现实主义”。他们还表明,平均而言,人们不太擅长检测人工智能生成的面孔。您可以自己将页面顶部的真人肖像与下面嵌入的肖像进行比较。
但也许人们意识到自己的局限性,因此不太可能成为人工智能在线生成的面孔的牺牲品?
为了找出答案,我们询问参与者对自己的决定有多大信心。矛盾的是,那些最不擅长识别人工智能冒名顶替者的人却对自己的猜测最有信心。
换句话说,那些最容易被人工智能欺骗的人甚至没有意识到自己被欺骗了。
在 instagram 上查看这篇文章
unreal person (@person.unreal) 分享的帖子
有偏差的训练数据会产生有偏差的输出
第四次工业革命——包括人工智能、机器人和先进计算等技术——深刻改变了我们在网上看到的“面孔”。
人工智能生成的面孔很容易获得,其使用既有风险也有好处。尽管它们被用来帮助寻找失踪儿童,但它们也被用于身份欺诈、钓鱼和网络战。
人们对自己检测人工智能面孔的能力缺乏信心,这可能使他们更容易受到欺骗行为的影响。例如,他们可能会轻易地将敏感信息交给伪装成超现实人工智能身份的网络犯罪分子。
人工智能超现实主义的另一个令人担忧的方面是它存在种族偏见。使用另一项也测试了亚洲人和黑人面孔的研究的数据,我们发现只有人工智能生成的白人面孔看起来超真实。
当被要求决定彩色面孔是人类还是人工智能生成时,参与者大约有一半的时间猜对了——类似于随机猜测。
这意味着人工智能生成的白色人脸看起来比人工智能生成的彩色人脸以及白人人脸更真实。
偏见和超现实人工智能的影响
这种种族偏见可能源于这样一个事实:人工智能算法(包括我们测试的算法)通常是针对大多数白人面孔的图像进行训练的。
算法训练中的种族偏见可能会产生严重影响。最近的一项研究发现,自动驾驶汽车不太可能检测到黑人,这使他们比白人面临更大的风险。生产人工智能的公司和监管它们的政府都有责任确保人工智能的多元化代表性并减少偏见。
人工智能生成的内容的真实性也引发了人们对我们准确检测它并保护自己的能力的质疑。
在我们的研究中,我们发现了几个使白人人工智能面孔看起来超真实的特征。例如,他们通常具有比例匀称且熟悉的特征,并且缺乏使他们从其他面孔中脱颖而出的独特特征。参与者将这些特征误解为“人性”的标志,导致超现实主义效果。
与此同时,人工智能技术发展如此之快,看看这些发现能应用多久将会很有趣。也不能保证其他算法生成的人工智能面孔与我们测试的人脸的差异相同。
自从我们的研究发表以来,我们还测试了人工智能检测技术识别我们的人工智能面孔的能力。尽管这项技术声称可以高精度识别我们使用的特定类型的人工智能面孔,但它的表现与我们的人类参与者一样差。
同样,用于检测人工智能写作的软件错误地指控人们作弊的比例也很高,尤其是那些母语不是英语的人。
管理人工智能的风险
那么,人们如何才能避免将人工智能生成的内容误认为是真实的呢?
一种方法是简单地了解人们在区分人工智能生成的面孔和真实面孔的任务时表现有多差。如果我们对自己在这方面的局限性更加警惕,我们可能就不太容易受到网上看到的信息的影响,并且可以在重要时采取额外的措施来验证信息。
公共政策也发挥着重要作用。一种选择是要求声明人工智能的使用。然而,当人工智能用于欺骗目的时,这可能没有帮助,或者可能无意中提供一种错误的安全感——在这种情况下,几乎不可能进行监管。
另一种方法是专注于验证可信来源。与“澳大利亚制造”或“欧洲 ce 标签”类似,应用可信来源徽章(可以验证且必须通过严格检查才能获得)可以帮助用户选择可靠的媒体。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 ,我们会第一时间配合删除。