|
Post by account_disabled on Apr 2, 2024 0:39:17 GMT -5
透過一些建議或描述即可創造出反映創作者靈感的圖像。這種發展可能會對社會產生可怕的後果。與任何重大破壞一樣有些結果將是正面的而有些結果則不然例如對插畫家工作的影響可能是毀滅性的。但除了其社會影響之外語義成像——我最喜歡的文本到圖像系統術語——也有自己的問題。萊比錫大學的研究人員與新創公司ggg合作撰寫的一篇論文顯示了語義圖像的生成可能有多大偏差。可以透過此處提供的一系列工具來探索結果。視覺生成人工智慧偏見與品味不難看出「」的形像大多以男性為代表而「護理人員」的形象則以女性為代表反映並強化了社會的不平衡。 美洲原住民」大多戴著頭飾這是一種刻板印象並不反映現實生活中的習俗。研究中使用的模型——的和的-——是根據從網路下載的數百萬張與文字描述相符的圖像進行訓練的。這些文字和圖片之間的關 希臘 電話號碼 係由模型統計地理解。除了隱私和作者身份問題之外——這些圖像很少有明確的許可允許它們用於這些目的——對材料的粗暴使用意味著結果將始終反映社會中現有的問題。如果網路上大多數執行長的照片都是男性那么生成的圖像也會是男性。像G這樣的大型語言模型也遭受同樣的命運這就是為什麼對其使用添加了許多限制例如拒絕回答某些問題。然而圖像模型通常沒。 有這些保護措施特別是當它們作為開源發佈時。這些模型中一個鮮為人知的偏見與美學和主觀有關。對於那些不奇怪的人——白人、受過教育、工業化、富有、民主——人工智慧生成的所有圖像都具有相同的沉悶外觀。這並不是說要否認生成引擎的驚人能力。自從早期超現實主義的G網路出現以來科技已經取得了長足的進步。但擴散模型的訓練技術中有許多因素會導致品味偏差。首先事實是其他視覺文化又在從網路上抓取的圖像集中得到了體現。已開發國家的使用者比南半球國家的使用者更傾向於發佈內容。但也許更重要的是對集合中(以及由它們訓練的網路。
|
|