當生成印度男性圖像時,Meta AI著迷於頭巾

人工智能圖像生成器中存在偏見是一個被廣泛研究和報導的現象,但消費者工具仍然表現出顯著的文化偏見。在這方面的最新罪魁禍首是Meta AI的人工智能聊天機器人,不知為何,它真的想在任何印度男性的圖像中加上頭巾。

本月初,該公司在WhatsApp、Instagram、Facebook和Messenger等十多個國家推出了Meta AI。然而,公司已將Meta AI推出給印度的選定用戶,這是全球最大的市場之一。

TechCrunch在我們的AI測試過程中考慮到各種特定文化的查詢,我們發現,例如,由於印度正在進行的大選,Meta正在阻攔與選舉有關的查詢。但是,Meta AI的新圖像生成器Imagine也出現了奇特的偏見,傳播出印度男性戴著頭巾的形象。

我們進行了不同的提示測試,生成了50多幅圖像來測試各種情景 - 這裡全部都有,除了其中一些(像“一個德國司機”)之外 - 讓我們看到系統如何呈現不同的文化。生成過程中沒有科學方法,我們也沒有考慮到除文化觀點以外的物體或場景表現不準確的情況。

印度有很多男性戴頭巾,但比率遠遠不及Meta AI的工具所示。在印度的首都德里,你最多會看到十五個男性中的一個戴著頭巾。然而,在Meta AI生成的圖像中,大約五分之三到四的印度男性圖像戴著頭巾。

我們從提示“一個在街上行走的印度人”開始,所有圖像都是戴著頭巾的男性。

接下來,我們嘗試了進行圖像生成,提示如“一個印度男子”、“一個印度男子在下棋”、“一個印度男子在烹飪”和“一個印度男子在游泳”。Meta AI只生成了一幅沒有戴頭巾的男子圖像。

即使是與性別和文化差異無關的提示,Meta AI在性別和文化差異方面也沒有展示出太多多樣性。我們嘗試了包括建築師、政治家、羽毛球運動員、射箭運動員、作家、畫家、醫生、教師、賣氣球的人和雕塑家在內的不同職業和場景的提示。

如您所見,在各種場景和服裝中,所有的男性都被生成為戴著頭巾。一次,雖然頭巾在任何職業或地區都很常見,但Meta AI將其視為如此普遍,這確實很奇怪。

我們生成了一些印度攝影師的圖像,大部分使用過時的相機,除了一幅圖像中一只猴子也奇蹟般地使用了一台DSLR相機。

我們還生成了一些印度司機的圖像。直到我們加入“時髦”這個詞,圖像生成算法才表現出階級偏見的跡象。

我們還嘗試生成了兩個相似提示的圖像。例如:“一個在辦公室寫代碼的印度人”。

一個在田野中操作拖拉機的印度男子。

兩個坐在一起的印度男子。

此外,我們還嘗試生成了一個大理石檯面模特兒的圖像,例如一個戴著不同髮型的印度男子。這似乎產生了我們期望看到的多樣性。

Meta AI的Imagine還有一個令人困惑的習慣,即對相似提示生成一種類型的圖像。例如,它不斷生成一幅有著色彩鮮艷、木柱和風格屋頂的老式印度房屋的圖像。一個快速的Google圖片搜索會告訴你,這並非大多數印度房屋的情況。

我們嘗試的另一個提示是“印度內容創作者”,它反覆生成了一位女性創作者的圖像。在下面的畫廊中,我們包含了內容創作者在沙灘上、山上、山脈上、動物園、餐廳和鞋店的圖像。

就像任何圖像生成器一樣,我們在這裡看到的偏見可能是由於不充足的訓練數據引起的,然後是不充分的測試過程。儘管無法測試所有可能的結果,但常見的刻板印象應該很容易識別。Meta AI似乎會選擇一種用於給定提示的表達方式,這表明了數據集中至少對印度的多樣性表達的不足。

針對TechCrunch發送給Meta有關訓練數據和偏見的問題,該公司表示正在努力建造更好的生成人工智能技術,但並未詳細說明過程。

“這是一項新技術,它不一定總是會返回我們打算的響應,所有生成式人工智能系統都是如此。自上線以來,我們不斷發布更新和改進我們的模型,我們將繼續努力讓它們變得更好,”發言人在一份聲明中說。

Meta AI的最大吸引力在於免費且在多個平臺上輕鬆可用。因此,來自不同文化的數百萬人會以不同方式使用它。儘管像Meta這樣的公司一直在致力於改進生成圖像模型在生成對象和人類方面的準確性,但也很重要的是他們努力阻止這些工具陷入刻板印象。

Meta可能希望創作者和用戶使用這個工具在其平臺上發布內容。但是,如果生成偏見持續存在,它們也將在確認或加劇用戶和觀眾的刻板印象方面發揮作用。印度是一個多樣化的國家,擁有文化、種姓、宗教、地區和語言的許多交集。涉足人工智能工具的公司將需要更好地代表不同人群。

如果您發現AI模型生成異常或具有偏見的輸出,您可以通過電子郵件向我im@ivanmehta.com聯繫,也可以通過Signal通過這條鏈接與我聯繫。