人類與人工智慧的資訊網路社會
隨著科技的飛速發展,生成式人工智慧(Generative AI)正以驚人的速度滲透到我們的日常生活中。這種技術已經不再僅僅是科幻小說中的概念,而是實實在在地影響著我們的工作、學習和生活方式。從知識的解構、資訊的傳播到政策的制定,生成式人工智慧全方位地改變著我們理解世界、互動以及做出決策的方式,不僅帶來了前所未有的便利和效率,還引發了關於人類角色、文化生成和社會結構的深層次思考。特別是在全球化和資訊爆炸的時代,我們必須重新審視人類在科技驅動的社會中的定位。本文將從人類學的視角,深入探討生成式人工智慧如何影響社會文化的形成與傳播,以及人類在這一過程中的角色轉變。我們將關注技術如何介入文化的生成機制,探討人類與機器之間的互動如何重新定義社會價值觀和認知方式,並思考這種變革對於未來社會的意義。
AI時代,人類角色的重新定位(此圖為AI生成)
Google的NotebookLM是一個典型的例子,展示了生成式人工智慧在知識解構和傳播方面的潛力。該工具能夠從複雜的文章中抽取關鍵內容,並通過模擬二人對話的方式生成聲音檔案,將深奧的知識以簡單易懂的形式呈現給大眾。這種方法不僅提高了知識傳播的效率,還模糊了傳統知識生產者與消費者之間的界限。在過去,知識的生成和傳播往往需要專業的學者、教育者和媒體的參與,現在一個工具就能完成這些任務。
在人類學中,知識的生成與傳播是一個重要的研究領域,因為知識不僅是資訊的集合,更是文化和價值觀的載體。NotebookLM的出現,促使我們重新思考知識在現代社會中的角色:當機器可以快速地解構和傳播知識時,人類在這一過程中的主體性是否會被削弱?傳統上,知識的傳遞依賴於人際互動和文化脈絡,教師和學生之間的交流、家庭中的口傳心授,這些都承載著豐富的情感和文化意義。機器化的知識解構是否會導致這些文化意義的流失?
此外,機器內部的對話形式也值得我們深入探討。傳統人際交流中的情感和價值觀,以及具有批判性的閱讀,該如何在機器對話中體現?機器模擬的對話能否真正捕捉到人類交流的細膩之處,還是僅僅停留在資訊的傳遞層面?這種轉變對文化的傳承和變遷有何影響?從人類學的角度看,文化是通過人際互動和社會實踐而生成和傳播的。機器介入這一過程,可能會改變文化的生成機制,進而影響社會的價值觀和認知方式。我們需要思考,機器在傳播知識的同時,是否也在重塑我們的思維模式和文化認同。
圖片來源:泛科學院
OpenAI的Swarm工具和微軟的Magentic-One為我們展示了另一種生成式人工智慧的應用模式:多代理人系統。這些系統能夠生成多個AI代理人,負責不同的工作內容,並以不同的觀點回應問題,形成機器組成的社會網絡。這種技術模仿了人類社會的職業分工和協作模式,試圖通過機器的力量完成複雜的任務。
在人類學中,社會結構和組織形式是重要的研究對象。我們關注人們如何通過社會關係和互動來構建社會,並賦予其意義。多代理人系統的出現,讓我們思考機器是否可以構建一個類似於人類的社會網絡。這種機器社會網絡如何影響人類的社會組織?人類在這種新的社會結構中扮演何種角色?當機器可以自行協作並完成複雜任務時,人類的價值和地位是否會發生改變?這些系統的專業分工也引發了對職業倫理和勞動價值的討論。機器代理人負責不同的專業內容,是否會取代人類的工作?這對勞動市場和社會經濟結構有何影響?從工業革命開始,技術進步一直伴隨著對勞動力的替代和重組。現在,生成式人工智慧可能進一步加劇這種趨勢。我們需要思考,機器的專業化和人類的獨特性如何共工,與勞動與生產形式需要重新定義,我們需要關注這種技術對人類社會關係和權力結構的影響。機器社會網絡是否會重塑人類的社會組織形式,甚至改變權力的分配方式?當機器不僅是工具,而是具有自主性的代理人時,我們如何確保人類在決策和價值判斷中仍然處於主導地位?
生成式人工智慧在新聞傳播領域的應用,為資訊的生成與傳播帶來了革命性的變化。AI技術已經深入了新聞製作的每一個環節,從自動生成新聞所需的圖片到影片,甚至是將文字轉換成語音來產生Podcast。這些技術大幅提高了新聞製作的效率,讓新聞的生成、驗證、發布及追蹤過程更加自動化。例如,OpenAI已經與多家新聞媒體合作,協助強化搜尋與推薦內容。DALL-E和MidJourney可以生成報導用的圖片,Pika和Stable Video負責生成影片內容,而Google的Vertex AI則可以將文字轉換成語音,快速生成新聞播報的音訊資料。自動化工具如FeedHive能追蹤閱聽眾的反應,讓新聞媒體即時調整新聞傳播策略,實現更精準的內容傳播。
DALLE-E:OpenAI開發的繪圖模型,從文字生成圖像(圖片來源)
然而,這種高效率的背後也隱藏著風險。生成式人工智慧可能被用於快速生成假訊息,對社會造成負面影響。例如,某些國家利用生成式AI技術,生成對自身有利的文章並發布於不同平台,這引發了國際社會對於輿論操控的擔憂。假新聞的快速傳播可能導致社會不穩定,甚至影響國際關係。
各國政府開始重視這一問題,並且提出了更為嚴格的規範措施。中國、美國及歐盟等國家已經要求,AI生成的內容需附上浮水印或可追溯的標記,以防止虛假內容的擴散,並且保護原創內容的版權。這些措施旨在維護資訊的真實性和可靠性,但同時也引發了對言論自由和資訊透明度的討論。
在人類學中,媒體和資訊傳播對文化的形成和維繫起著至關重要的作用,如同想像共同體中的印刷資本主義。資訊不僅是事實的傳遞,也是價值觀和文化意義的載體。當生成式人工智慧介入新聞傳播,我們需要思考:這些技術是否能促進多元視角的交流,有可能無意中強化了既有的文化與權力結構,同時資訊的快速傳播有可能會導致文化的同質化,削弱地方文化的獨特性。
圖片為AI生成
社會內部的多元文化往往是在民主社會中才較有可能誕生,生成式人工智慧為民主化進程提供了全新的工具和契機。利用多代理人系統,可以匯總不同意見,進行深度分析,將多元觀點轉化為可行的政策建議,為民主社會的政策制定過程注入了更多的科技協助。然而,這些系統仍然面臨諸多挑戰。人工智慧生成的內容往往受到其訓練資料的影響,可能無意中強化既有的偏見,帶來意想不到的效應。例如,中央研究院詞庫小組(CKIP)於 2023 年推出基於商用開源模型 Llama-2-7b 和 Atom-7b 自行開發的大型語言模型 CKIP-Llama-2-7b。由於其訓練資料部分來自於中華人民共和國,該模型在回答有關中華民國國歌的問題時,提供的是中華人民共和國的國歌,並出現其他不正確的回答。這些情況反映了生成式人工智慧技術在提供便利的同時,也可能帶來挑戰和潛在的問題,凸顯了生成式人工智慧技術的兩面性。(編按:CKIP-Llama-2-7b已於2023/10/9暫時下架,可參見中研院聲明。)一方面,它能夠降低社會各階層接觸技術的門檻,促進資訊的流通;另一方面,它也可能成為假訊息的散布工具,對民主社會的信任基礎造成威脅。
民主並非僅僅是一種政治制度,更是一種文化和價值觀的體現。生成式人工智慧的介入,可能會影響民主的實踐方式和內涵。Ti Orange頻道是我目前我正在進行全生成式人工智慧生成文字與影片的實驗計劃,藉由模擬多人對於新聞議題進行討論,探討知識與權力的結構如何生成,檢視新技術對於新聞產製與社會文化的可能性與問題。人工智慧在民主進程中未來可能會扮演更重要的角色,其技術的應用該如何免損害民主的核心價值與社會文化?例如,當政策制定過程中依賴於AI的分析和建議時,公民的參與度和決策的透明度是否會受到影響。未來政治人類學所有處理的或許不再只是人的問題,而是人與非人的問題了。
Ti Orange頻道(透過AI模擬多人討論新聞議題的實驗頻道)
本文採用 創用CC 姓名標示-非商業性-禁止改作 3.0 台灣版條款 授權。歡迎轉載與引用。
轉載、引用本文請標示網址與作者,如:
劉榮樺 人類與人工智慧的資訊網路社會 (引自芭樂人類學 https://guavanthropology.tw/index.php/article/7067 )
* 請注意:留言者名字由發表者自取。
發表新回應