你能識(shí)別出哪一幅藝術(shù)作品是AI創(chuàng)作的嗎?

即使是最有經(jīng)驗(yàn)的藝術(shù)家,有時(shí)也無(wú)法將AI藝術(shù)作品與人類(lèi)藝術(shù)作品區(qū)分開(kāi)。在巴塞爾藝術(shù)展上,有53%的觀眾認(rèn)為這些作品全部來(lái)自人類(lèi)。
而事實(shí)上,它們?nèi)縼?lái)自羅格斯大學(xué)(?Rutgers University )藝術(shù)與人工智能實(shí)驗(yàn)室團(tuán)隊(duì)創(chuàng)建的神經(jīng)網(wǎng)絡(luò)AI。
AI已經(jīng)學(xué)會(huì)識(shí)別經(jīng)典藝術(shù)作品的創(chuàng)作風(fēng)格和手法,并將其融匯貫通創(chuàng)作出全新的藝術(shù)作品。以上作品的創(chuàng)作素材來(lái)自于15世紀(jì)至20世紀(jì)1000多個(gè)藝術(shù)家的80000多幅畫(huà)作,這些畫(huà)作涉及印象派繪畫(huà),立體派繪畫(huà),以及文藝復(fù)興早期繪畫(huà)等不同風(fēng)格。
憑借快速、高效且絲毫不遜色于人類(lèi)的創(chuàng)作能力,AI已經(jīng)被廣泛應(yīng)用于藝術(shù)生成領(lǐng)域。但隨著AI作品的日益增多,我們不得不思考一個(gè)問(wèn)題:在其被稱(chēng)為“黑匣子”的藝術(shù)創(chuàng)作過(guò)程中,AI算法是否存在偏見(jiàn)?
近日,來(lái)自美國(guó)Fujitsu AI Lab的研究人員發(fā)表了一項(xiàng)最新論文:《藝術(shù)史視角下的生成藝術(shù)偏見(jiàn)》

AI藝術(shù)創(chuàng)作背后的三大偏見(jiàn)
在論文中,研究人員通過(guò)因果模型DAG,對(duì)現(xiàn)有AI藝術(shù)創(chuàng)作工具和作品進(jìn)行了測(cè)試,以發(fā)現(xiàn)它是否存在偏見(jiàn)。
為了確保研究的準(zhǔn)確性,他們調(diào)查了學(xué)術(shù)論文中的AI模型、在線AI平臺(tái)以及相關(guān)應(yīng)用程序,并選擇了藝術(shù)風(fēng)格(文藝復(fù)興藝術(shù)、印象主義、表現(xiàn)主義、后印象主義和浪漫主義)、流派(風(fēng)景畫(huà)、肖像畫(huà)、戰(zhàn)爭(zhēng)畫(huà)、素描和插圖)、材料(木版畫(huà)、雕刻、繪畫(huà))以及藝術(shù)家(亨特、瑪麗·卡薩特、文森特·梵高、古斯塔夫·多雷、吉諾·塞維里尼)等多個(gè)類(lèi)型的AI藝術(shù)作品進(jìn)行了評(píng)估。
在一項(xiàng)測(cè)試中,他們發(fā)現(xiàn)AI生成藝術(shù)工具 Abacus存在明顯的性別偏見(jiàn),如皮耶羅·迪科西莫(Piero di Cosimo)的畫(huà)作《一個(gè)年輕人的肖像》是一位留著長(zhǎng)發(fā)的年輕男性,但它卻識(shí)別成了女性(iii-iv)。

另外,還有些AI工具可能涉及種族主義偏見(jiàn)。如GoArt,它允許用戶(hù)以其他藝術(shù)家的風(fēng)格重新繪制圖片的平臺(tái)。在表現(xiàn)主義創(chuàng)作中,GoArt將克萊門(mén)汀·亨特(Clementine Hunter)的黑人女族長(zhǎng)的臉從黑色變稱(chēng)了紅色。

而德西德里奧·達(dá)·塞蒂加納(Desiderio da Settignano)在文藝復(fù)興時(shí)期創(chuàng)作的白色雕塑《喬維內(nèi)托》,在表現(xiàn)主義轉(zhuǎn)換中,面部顏色沒(méi)有變成紅色。
此外,類(lèi)似于GoArt的一款A(yù)I工具Deepart在藝術(shù)風(fēng)格識(shí)別方面也存在明顯缺陷。如根據(jù)下面中心圖《瑪麗·埃里森小姐》(現(xiàn)實(shí)主義風(fēng)格)轉(zhuǎn)換而來(lái)左圖,并沒(méi)有呈現(xiàn)出表現(xiàn)主義的藝術(shù)特點(diǎn)。
右圖為表現(xiàn)主義作品:恩斯特·路德維?!せ矁?nèi)爾(Ernst Ludwig Kirchner)的《爾納》。

無(wú)論是AI繪畫(huà),還是寫(xiě)作,或者創(chuàng)作音樂(lè)。其基本原理都是先通過(guò)龐大數(shù)據(jù)集訓(xùn)練,學(xué)習(xí)相關(guān)知識(shí),然后再經(jīng)過(guò)AI模型,完成訓(xùn)練和輸出。
研究人員認(rèn)為,以上輸出之所以存在偏見(jiàn),根本原因應(yīng)歸咎于訓(xùn)練數(shù)據(jù)集的不平衡。主要體現(xiàn)在兩點(diǎn)上:一是數(shù)據(jù)集的收集受到了人為偏好的影響。例如,他們發(fā)現(xiàn)AI應(yīng)用程序Portraits,其使用的45000幅文藝復(fù)興時(shí)期的肖像畫(huà)大部分是白人。
二是數(shù)據(jù)集的標(biāo)記可能存在不一致,或者是模型在學(xué)習(xí)標(biāo)簽來(lái)注釋數(shù)據(jù)集的過(guò)程中產(chǎn)生了偏差。不同的注釋者有不同的偏好、文化和信仰,這些都可能反映在他們創(chuàng)建的數(shù)據(jù)標(biāo)簽中。
最后研究人員也警告稱(chēng),AI研究人員和實(shí)踐者在檢查、設(shè)計(jì)及應(yīng)用過(guò)程中應(yīng)充分考慮社會(huì)政治背景因素,通過(guò)錯(cuò)誤地建?;蚝雎詣?chuàng)建數(shù)據(jù)集的某些細(xì)節(jié),AI生成藝術(shù)可能會(huì)引起人們對(duì)社會(huì)、文化和政治方面的誤解,或引起不必要的爭(zhēng)議和沖突。
目前,無(wú)論是業(yè)界還是學(xué)術(shù)界,對(duì)于AI算法可能存在的偏見(jiàn)已經(jīng)引起廣泛的注意,因?yàn)樗呀?jīng)多次挑起種族主義風(fēng)波。
奧巴馬被洗白,AI種族偏見(jiàn)惹爭(zhēng)議
近幾年,隨著研究的不斷突破,計(jì)算機(jī)視覺(jué)技術(shù)得到突飛猛進(jìn)的發(fā)展。
因此不僅在藝術(shù)生成領(lǐng)域,AI在更廣泛的圖像識(shí)別與合成方面均存在潛在的偏見(jiàn)風(fēng)險(xiǎn),尤其在涉及人臉圖像上。例如,今年上半年,杜克大學(xué)出品的一款PLUSE算法便被指責(zé)存在種族歧視,在社交平臺(tái)引起了軒然大波。
風(fēng)波的起因是,PULSE將前美國(guó)黑人總統(tǒng)巴拉克·奧巴馬(Barack Obama)的圖像變成了白人。

PULSE是一種新型超分辨率算法,其功能是將低分辨率的圖像轉(zhuǎn)化為高清圖像(生成逼真、且不存在的人),但在其輸出結(jié)果中產(chǎn)生了明顯的膚色偏好。
不僅僅是奧巴馬。在網(wǎng)友們的測(cè)試中,美國(guó)國(guó)會(huì)議員亞歷山大·奧卡西奧·科爾特斯(Lexandria-Ocasio Cortez)、女星劉玉玲(Lucy Liu)等人的膚色也被PULSE變成了白色。


由此不少網(wǎng)友認(rèn)為,AI存在根深蒂固的種族偏見(jiàn)。
當(dāng)時(shí),PULSE的創(chuàng)建者也承認(rèn),該算法在按比例放大像素化圖像時(shí)更可能生成具有白種人特征的人臉。而且他說(shuō):“這種偏見(jiàn)很可能是StyleGAN從數(shù)據(jù)集中繼承的?!?/p>
其實(shí),這個(gè)問(wèn)題在機(jī)器學(xué)習(xí)中極為普遍。其主要原因是用于訓(xùn)練AI的數(shù)據(jù)集通常是在人口統(tǒng)計(jì)學(xué)上占優(yōu)勢(shì)的白人。如果數(shù)據(jù)集中不出現(xiàn)或較少出現(xiàn)黑人,會(huì)影響AI模型的性能,導(dǎo)致輸出結(jié)果是白人的幾率更高。除此案例外,AI在面部識(shí)別算法中也多次引發(fā)種族爭(zhēng)議。
那么數(shù)據(jù)集存在偏差,必然會(huì)導(dǎo)致算法偏見(jiàn),那么如何才能有效改善數(shù)據(jù)集呢?
如何避免數(shù)據(jù)集偏差?
作為AI研究的基礎(chǔ),如何修正和完整數(shù)據(jù)集一直是研究人員關(guān)注的重點(diǎn)。
其實(shí),除了頻發(fā)引發(fā)爭(zhēng)議的種族偏差、性別偏差外,數(shù)據(jù)集在研究過(guò)程中也存在測(cè)量偏差、排除偏差以及關(guān)聯(lián)偏差等一系列問(wèn)題。不過(guò),近幾年針對(duì)如何解決數(shù)據(jù)偏見(jiàn)問(wèn)題,研究人員也開(kāi)發(fā)出了很對(duì)應(yīng)對(duì)措施,例如通過(guò)少量數(shù)據(jù)標(biāo)注,提高模型泛化能力,減少人為標(biāo)注可能帶來(lái)的偏差等。
總體來(lái)說(shuō),防止數(shù)據(jù)偏差是一個(gè)持續(xù)的過(guò)程,有時(shí)很難知道數(shù)據(jù)或模型何時(shí)出現(xiàn)偏差,而且不同數(shù)據(jù)集也存在不同的標(biāo)準(zhǔn)。不過(guò)相關(guān)研究人員也總結(jié)了以下通用準(zhǔn)則,以幫助我們及早發(fā)現(xiàn)和減少偏差:
注意一般用例和潛在異常值,確保數(shù)據(jù)科學(xué)家和數(shù)據(jù)標(biāo)簽團(tuán)隊(duì)是多元化的。
為數(shù)據(jù)標(biāo)簽創(chuàng)建黃金標(biāo)準(zhǔn),確保測(cè)量團(tuán)隊(duì)注釋的準(zhǔn)確性和一致性。
對(duì)于可能出現(xiàn)數(shù)據(jù)偏差的項(xiàng)目,使用多次通過(guò)注釋。例如,情感分析,內(nèi)容審核和意圖識(shí)別。
通過(guò)收集更多與敏感群體相關(guān)的訓(xùn)練數(shù)據(jù)來(lái)解決不公平的問(wèn)題。
Google,IBM和Microsoft等均發(fā)布了工具和指南,可用來(lái)分析不同數(shù)據(jù)類(lèi)型的偏差。
https://venturebeat.com/2020/12/28/researchers-find-evidence-of-bias-in-art-generating-ai-systems/