人工智能面孔如何欺騙我們存在令人不安的種族偏見
ChatGPT 有沒有給你一種怪異的感覺,你正在與另一個人互動?
人工智能(人工智能)已經達到了驚人的現實主義水平,以至于一些工具甚至可以愚弄人認為他們正在與之互動另一個人.
詭異并不止于此。在一個今天發表的研究在心理科學,我們發現了由流行的StyleGAN2 算法看起來比真人的臉更“人性化”。
AI 創建超逼真的面孔
在我們的研究中,我們向 124 名參與者展示了許多不同白人面孔的圖片,并要求他們決定每張面孔是真實的還是由 AI 生成的。
一半的圖片是真實的面孔,而一半是人工智能生成的。如果參與者是隨機猜測的,我們預計他們大約有一半的時間是正確的——類似于擲硬幣和獲得反面的一半時間。
相反,參與者系統性地錯了,更有可能說人工智能生成的面孔是真實的。平均而言,人們在人工智能生成的面孔中,大約有三分之二的人臉是人類。
這些結果表明,人工智能生成的人臉看起來比實際的人臉更真實;我們稱這種效應為“超現實主義”。他們還表示,平均而言,人們不太擅長檢測人工智能生成的面孔。您可以自己將頁面頂部的真實人物肖像與下面嵌入的肖像進行比較。
但也許人們意識到自己的局限性,因此不太可能成為人工智能在線生成面孔的犧牲品?
為了找到答案,我們詢問了參與者對自己的決定的信心。矛盾的是,那些最不善于識別人工智能冒名頂替者的人對他們的猜測最有信心。
換句話說,那些最容易被人工智能欺騙的人甚至沒有意識到他們被欺騙了。
有偏差的訓練數據提供有偏差的輸出
這第四次工業革命——包括人工智能、機器人和先進計算等技術——深刻地改變了我們在網上看到的“面孔”類型。
人工智能生成的面孔很容易獲得,它們的使用既有風險也有好處。雖然他們已經習慣了幫助尋找失蹤兒童,它們也被用于身份欺詐,鯰魚和網絡戰.
人們對檢測人工智能面孔的能力的錯誤信心可能會使他們更容易受到欺騙行為的影響。例如,他們很容易將敏感信息交給偽裝在超現實人工智能身份背后的網絡犯罪分子。
人工智能超現實主義的另一個令人擔憂的方面是它帶有種族偏見。用來自另一項研究的數據它還測試了亞洲和黑人的面孔,我們發現只有人工智能生成的白人面孔看起來非常逼真。
當被要求決定有色人種的面孔是人類還是人工智能生成的時,參與者猜對了大約一半的時間——類似于隨機猜測。
這意味著 AI 生成的白色面孔看起來比 AI 生成的彩色面孔以及白色人臉更真實。
偏見和超現實人工智能的影響
這種種族偏見可能源于這樣一個事實,即人工智能算法,包括我們測試的算法,通常是在大多數白人面孔的圖像上訓練的。
算法訓練中的種族偏見可能會產生嚴重影響。最近的一項研究發現,自動駕駛汽車是不太可能發現黑人,使他們面臨比白人更大的風險。生產人工智能的公司和監督它們的政府都有責任確保人工智能的多元化代表性并減輕偏見。
人工智能生成內容的真實性也引發了人們對我們準確檢測和保護自己的能力的質疑。
在我們的研究中,我們確定了幾個使白色 AI 面孔看起來超現實的特征。例如,它們通常具有相稱且熟悉的特征,并且缺乏使它們從其他面孔中脫穎而出的鮮明特征。參與者將這些特征誤解為“人性”的標志,導致超現實主義效果。
與此同時,人工智能技術發展如此之快,看看這些發現能應用多久會很有趣。也不能保證其他算法生成的AI面孔會像我們測試的那樣與人臉不同。
自我們的研究發表以來,我們還測試了人工智能檢測技術識別人工智能人臉的能力。盡管這項技術聲稱可以高精度地識別我們使用的特定類型的人工智能面孔,但它的表現與我們的人類參與者一樣差。
同樣,用于檢測 AI 寫作的軟件也具有很高的誣告他人作弊– 尤其是母語不是英語的人。
管理 AI 的風險
那么,人們如何保護自己不被誤認為是人工智能生成的內容是真實的呢?
一種方法是簡單地意識到人們在將 AI 生成的面孔與真實面孔區分開來時表現不佳。如果我們更加警惕自己在這方面的局限性,我們可能不太容易受到網上看到的內容的影響——并且可以在重要的時候采取額外的措施來驗證信息。
公共政策也發揮著重要作用。一種選擇是要求聲明使用人工智能。然而,這可能無濟于事,或者當人工智能被用于欺騙目的時,可能會無意中提供一種虛假的安全感——在這種情況下,幾乎不可能進行監管。
另一種方法是專注于驗證可信來源。與“澳大利亞制造”或“歐洲CE標簽”類似,應用可信來源徽章(可以驗證并且必須通過嚴格的檢查獲得)可以幫助用戶選擇可靠的媒體。
艾米·達維爾,臨床心理學家,心理學研究學院講師,澳大利亞國立大學;本·阿爾伯特·斯圖爾德, ,澳大利亞國立大學;克萊爾·薩瑟蘭,高級講師,University of Aberdeen;伊娃·克魯姆胡伯副教授倫敦大學學院和扎卡里·維特科沃助理教授University of 大學阿姆斯特丹