人工智慧與數位浪潮
藝文生態系的作為和反思?(下)
倫敦|London
除了前文概述的政府和文化機構外,民間組織和研究機構對於新興數位發展亦扮演積極角色,藝術社群的自發運動也成為替代科技方案的推手。
民間組織與研究機構角色
民間組織與研究單位的重要性展現在倡議、研發與教育推廣三大層面。
透過倡議,民間組織達到政策推廣和產業督促的作用,同時扮演智庫與孵育的功能,聚焦道德準則的研擬,期許各界能夠開發出問責性更強、更具道德意識的AI模型和行業規範。例如紐約大學AI Now學院從2017年成立以來致力於發表可行性高的政策建議,期望導正目前AI技術基礎建設(與世界觀)受到矽谷科技巨頭把持的局面。愛丁堡大學旗下的愛丁堡未來學院(Edinburgh Futures Institute)則透過委任、駐地與共製,孵育運用AI運算、機器學習等新技術的新作,藉以推進對AI倫理的探討。
學院倡議的形式也結合藝術創作手勢,例如哥倫比亞大學藝術學院的數位說故事實驗室(Digital Storytelling Lab)開發的「科學怪人AI:眾創的怪獸」計畫,2018年進軍紐約日舞影展(Sundance Film Festival)與阿姆斯特丹國際紀錄片電影節(IDFA)。該計畫營造多幕的劇場情境,結合AI和具張力的投影裝置,即時反饋現場觀眾的回應,做為訓練名為「科學怪人」(Frankenstein)的AI程式的數據素材。故事開場設定為科學怪人AI在爬梳網路上所有關於人類與其情緒表達的數據後對於人性黑暗極其困惑,主動浮出水面尋求與真人互動,以期更了解人類的觀點。展覽現場設計機器與觀眾互動提問,對人性進行詰問(問題包含「何為人性?」、「人為何產生情緒?」等),這些觀眾的回應即時投入AI訓練,藉以校正大數據仰仗網路為訓練素材時,時常引發的運算偏見。計畫的最終回是一場由AI主導的公眾表演,表演的劇本、視覺呈現以及聲效都交由科學怪人AI生成,因此最終呈現取決於展期間人機互動的結果。這個計畫精巧地結合藝術創作、學院倡議及教育推廣的功能,期盼參與者透過與機器的互動,不僅能夠更深入思考人與人的連結,同時觸發對AI基礎建設的思辨和議題識讀的能力。
「科學怪人AI:眾創的怪獸」計畫
Courtesy: Digital Storytelling Lab, Columbia University School of the Arts
民間單位的研發角色可見於與新創公司的合作之上,提供創意科技公司技術、設備、研究成果、跨界人脈等資源,諸如英國的道德AI與機器學習學院(Institute for Ethical AI & Machine Learning)、AI倫理實驗室(AI Ethics Lab)等研究機構,皆致力發展人工智慧的道德準則,提供生態系成員(創作者與開發人員、政策制定方、投資方等)全球最佳治理的實踐案例。美國的帕羅.奧多研究中心(Palo Alto Research Center)更設計淺顯的導引問卷,邀請開發者逐項自我檢核,檢視數據採集、社會影響(機器偏見、是否違反社會風俗常規)、環境足跡、使用者隱私、潛在濫用風險以及產品上線後的照看與責任等面向。
研究單位的教育推廣角色也包含透過與文化機構攜手,增加大眾對新興技術的操作認知。倫敦國王學院與蛇形藝廊合作的創意AI實驗室(Creative AI Lab)即將文化機構做為新技術生成及推展的關鍵場域,不僅籌組研究型工作坊和研討會,並積極發表研究成果,同時舉辦關於AI和機器學習的線上教學,更推出共享的資料庫,提供創作者、文化機構與文創業者可應用於AI程式的開發者資源。該計畫期望透過這些近乎去魅的方法,以教學、研究和知識分享賦能文化界,鼓勵將機器學習視為一項創作媒介,增加AI開發過程關於透明度和問責性的陽光化討論。
藝術家與文化社群的擾動
藝術家擅長介入並視覺化較難感知的技術機制,善於揭露那些開發過程未曾攤在陽光下被檢視的環節。藝術家葛瑞琴.安德魯(Gretchen Andrew)對創作者的角色有著精闢的解析,她認為AI的構成來自已知的社會,換言之,機器訓練的數據建基於過往的足跡,因此當被要求創造出不同於以往的開拓性觀點時往往陷入膠著,這也成為機器歧視與偏見的根源。相比之下,藝術家擅長的是創造全新的觀點,打破對事物的既有認知,透過對已知世界的介入和對未來的創想,開發出發人省思的替代AI方案。
符合安德魯描述的藝術計畫不勝枚舉。諸如藝術家崔佛.派格連(Trevor Paglen)與學者凱特.克勞福(Kate Crawford)的長期合作即披露AI電腦視覺系統中用以訓練機器判讀的數據,其標示方式如何強化既有的霸權。例如同樣一張手拿酒杯的影像,白人面孔的照片用以標示分類的字眼通常傾向正面或中性,而非白人面孔的圖象則常被標示成與負面、犯罪或危險相關聯的詞條。這項計畫期望透過檢視數據被標示的方法,思考科技系統於數據蒐集、分類標示和使用的倫理,探究社群如何透過數據標示系統被歸類、被編寫、被歧視,進而成為機器認知與機器決策的一部分,期望促進對AI訓練過程陽光化的討論。
藝術家傑克.艾維斯(Jake Elwes)的「Zizi:酷兒數據集」計畫以開源的影像生成AI為基礎,重新餵養變裝皇后等非常規性別的影像與資料分類,試圖混淆系統對性別的認知和分類原則。在餵養千筆新數據後,影像生成AI產生出的照片開始呈現面容扭曲、誇張的形象變化。一張張變形的深偽影像展現酷兒社群對白人男性權威的入侵,期望藉此重拾科技場域中多元聲音的代表權力。
除了透過藝術介入將抽象議題視覺化、道德危機陽光化等做法外,創作社群也對替代AI方案的開發不遺餘力。藝術家麥特.崔赫斯(Mat Dryhurst)和荷莉.亨多(Holly Herndo)協力開發出「我被用來訓練AI了嗎?」(Have I Been Trained?)平台,檢索線上常見用來訓練AI系統的五十八億筆數據,藉以辨認個別藝術家的創作是否在未經許可、未得到合理報酬的情況下被用作數據蒐集和機器訓練的素材。這個平台旨在幫助創作社群維權,一方面倡導AI開發商應該提供退場機制,尊重版權所有人不參與機器訓練的權益,同時提供創作社群退場方案,讓藝術家和版權所有者在自己的作品上進行標示,自由選擇是否成為未來機器學習的數據來源。
文化界同樣透過替代AI方案的開發試圖推廣道德AI準則的案例,包含紐西蘭非營利媒體Te Hiku傳媒。Te Hiku傳媒以傳承毛利語言為己任,在認知到目前存在的AI大型語言模型深化了殖民世界的語言霸權後,決心以旗下多年積累的語言檔案為基礎,逕行開發屬於毛利人的AI系統,讓語言做為毛利文化的核心不在科技圈中噤聲。該計畫主張透過族群自決的方式,將語言(即其數據)這項文化資產的所有權保留於原住民族社群所有,並確保數據的流通和使用能妥善取得原住民族社群的授權。除了運用多年來積累的檔案庫外,該計畫更公開舉辦徵件比賽,邀請社群積極投稿,錄製毛利用詞、諺語、故事等內容做為機器訓練素材。在各界協力之下,僅短短數週這套自行開發的大型語言模型已達到近九成準確度,已可用於抄寫Te Hiku傳媒的檔案庫。秉持「數據主權」(Data sovereignty)的原則,這項計畫也制定出符合毛利禮俗的監護授權模式,明文規定這些語言數據資產及其衍生使用仍由源出社群和貢獻數據的個人掌有,確保語言數據商用後的收益也能確實回饋到原住民族社群。
結語
本文討論聚焦歐美文化界對新興科技(尤其是AI)應用的案例,反思這場數位革新的浪潮能夠如何培育出更為道德、以人為本的科技方案。文章淺探政府、文化機構、民間組織與研究單位和藝術家等生態系成員在數位轉型過程中扮演的關鍵角色:政府一來制定政策和法規,監管AI的應用,同時號召生態系保護個人隱私和數據權益,二來協助文化機構與從業人員增進數位韌性和科技識讀能力,同步提昇對創意科技產業的輔助與研究。文化機構提供平台與數據庫,推動教育研究及孵育共製,成為新技術實驗和試點的絕佳夥伴。民間組織和研究單位在研發、教育和倡議方面發揮重要作用,促進公眾參與和理解AI技術,同時推展政策革新和產業反思。而藝術家則以其創造力和批判思維挑戰現有AI實踐,開拓替代方案,提供新的思維方式和視角。
【相關文章】