日韩精品av久久有码一区浪潮,欧美精品欧美,国产精品久久午夜夜伦鲁鲁,11一11sexvideos,黄色一级大片免费,国产高清露脸

網站首頁 | 網站地圖

每日推薦
首頁 > 理論前沿 > 深度原創 > 正文

生成式人工智能浪潮下的用戶媒介素養提升

【摘要】生成式人工智能是建立在人機交互的基礎上,其在實踐上的準確度、易用性等優勢離不開與人類順暢高效的交互。因此,用戶作為內容生成的參與者需要具備一定的媒介素養,包括責任意識、專業知識、批判精神和表達能力等。積極主動提升用戶的媒介素養,不僅有助于生產出高品質的內容產品,而且可以防范出現“智能鴻溝”現象。

【關鍵詞】生成式人工智能 用戶 媒介素養

【中圖分類號】G206 【文獻標識碼】A

當前,內容生產模式在經歷了專業生成內容、用戶生成內容和專業用戶共同生成內容之后,開始進入人工智能生成內容的階段,即通過生成式人工智能(AIGC)輔助或自動生成內容。生成式人工智能是基于人工智能技術,通過大模型訓練和大數據學習,可以按照用戶的指令,生產出具有一定意義的內容產品。生成式人工智能不僅構建了內容生產的新范式,而且使社會信息結構發生較大變化,也將對我們的生產生活方式產生深遠影響。

生成式人工智能促使更多用戶參與內容生產

為消弭“能力溝”提供技術可供性。在大眾傳播時代,用戶在經濟資源、文化水平和認知理念等方面存在差異,使得資訊可供性出現不平等不均衡,導致受眾之間出現“知識溝”“信息溝”等現象。互聯網的普及,在信息、知識等的可供性上賦予了普通用戶更多的機會,事實上,一些人就抓住機遇,實現創業拓展,而一些人則沉湎于網劇、游戲等娛樂性消遣,引發“能力溝”問題。雖然社交媒體的快速發展在觀點的表達、信息的生產上賦予人們更大權力,但能否快速、大量地生產出優質內容產品,成為區分普通用戶與專業傳媒機構的重要標準。如果不能提升內容產品的質量,就很難改變普通用戶依然是內容接收端的現實,用戶生成內容也只能是用戶社交行為的衍生物。生成式人工智能的面世,有助于普通用戶通過AI技術彌補自身在內容生產中的不足,包括對專業知識、語言、編程等的掌握和應用。生成式人工智能賦予普通用戶與專業的內容生產者幾乎相同的技術可供性,能夠大幅度提升普通用戶在使用社會資源、生成各類文本及解決實際問題等方面的能力。

推進內容生產的“平民化”。多數人在日常工作和生活中,都是消費他人內容產品的旁觀者,尤其是在大型網絡社區和社交網絡中,通常是少數人生產大多數內容,更多的潛水用戶只是觀看,并不貢獻任何內容,這一現象有時被叫作參與不均。①內容生產是一項復雜的系統工程,需要具備一定的條件。僅就生產者而言,自身的家庭背景、經濟水平、受教育程度,以及一定的技術素養等,都關涉到內容的創作與生產。對處于分散狀態、紛繁復雜的信息資源,無論是采集整合素材、生成文本還是生成視頻,生成式人工智能都有助于減少內容生產所要耗費的時間、物力和人力,并為普通用戶搭建智能化的信息場景,賦予用戶更多便利。生成式人工智能,為人們發揮想象力進行各種創作大開方便之門,使得內容生產成為體現個人能力、興趣和品位,乃至自身價值的一種途徑和方式。可以說,生成式人工智能,不僅為人們提供展示一技之長的機會,更是一種技術賦權。生成式人工智能在改變傳統內容生產主體結構的基礎上,推動內容生產與創作的社會化和平民化。人們以自己的方式“創造”日常生活,也“創造”對規訓進行抵制的戰略與戰術,人們通過重新組織、解釋編碼的方式對文化產品進行二次生產。②

“按需生產”的實現促進用戶角色轉變。用戶在使用生成式人工智能時,需要輸入反映個性化需求的“提示詞”。AI工具根據用戶的指令進行內容的量身定制,不僅降低內容生產的成本,而且使用戶更易于找到感興趣的內容,按需生產得以實現,技術進步成為個性化需求的重要驅動力。生成式人工智能賦予普通用戶自由表達、自由創作以及通過內容獲利的機會,激發人們的內容生產積極性,促進了慣常的內容消費者向內容生產者的轉變,推動著他們從單一的“消費者”轉向復合的“產消者”,這些“產消者”越來越能夠按照自己的利益、意愿、觀念、能力和方式等,開發自己所能夠掌控的各類信息資源。在智能化生產體系和算法推薦技術的雙重助力下,普通用戶在內容產業領域不僅提高了內容生產的效率,實現了多模態的呈現,而且一定程度上改變了原有的內容生產鏈,并對內容的流量和流向產生深遠影響。

普通用戶使用生成式人工智能面臨的常見問題

把關不到位,影響對信息真實性判別。機器學習技術無法有效區分真實信息和虛構信息,即便在圖像識別、自然語言處理等加持下所生產出來的圖文、音視頻等產品,也難免夾雜著非真實信息的風險,尤其是在音視頻數據采集效率得到大幅提高的情況下,虛擬視聽技術被應用于多種場景,更易于混淆影像創作與真實內容的邊界。“天馬行空”“語出驚人”成為生成式人工智能在內容創作時的顯著特點,尤其是生成一些看似專業但實際上并不存在的概念或事實,普通用戶僅憑個人能力很難辨識這些內容產品中所含信息的真偽。作為典型的、主觀故意的“深度偽造”,更會引發內容失真、混淆視聽、強化偏見等現象,不僅進一步打破人們慣常的“眼見為實”的觀念,而且增加為辨識信息真偽所耗費的心智成本。

信息保護意識缺乏,易引發侵權和泄密問題。用戶在與AI進行交互時,如果所使用的內容(已有明確著作權人的作品)未經授權或允許,則可能侵犯著作權。個人數據可以直接體現個人在作出選擇時的偏好,有著較高的市場價值。在生成內容中,隨意使用個人生物識別信息(如人臉照片、身份、健康等相關信息),就會存在侵犯公民個人隱私的風險。當用戶在使用個人形象生成AI圖片或AI視頻時,如使用Midjourney(由Midjourney研究實驗室開發的人工智能程序,可根據文本生成圖像),就需要將自己的個人攝像或攝影作品上傳至網站,然而生成過程中無法保證個人照片的隱私性。此外,用戶在與AI對話時,為了提高生成內容的效率,編寫“提示詞”時不可避免的需要真實地表達自己的觀點和立場,甚至有時需要讓渡一定的平時不宜公開的個人信息,但人工智能則會將這些信息傳輸到服務器上,使得用戶所輸入的信息進入學習語料素材庫中,這就可能在反復交流對話中實現多次的傳輸。當AI向他人輸出生成的內容時,前期用戶的信息則可能會輸出給其他用戶,從數據層面造成個人信息甚至是秘密的泄露。

“提示詞”不精準,影響人機交互效果。在AI大模型中,“提示詞”是為機器生成回復指明方向、角度和范圍的詞匯或短語。普通用戶在編寫“提示詞”時,容易因為對“提示詞”的用法不了解,致使“需求”“問題”的含義不能有效表達,影響到AI工具對用戶的響應質量,導致人機對話不順暢。

從語言層面看,最常見的是用戶給出的“提示詞”過于籠統模糊或者多義,導致AI曲解或誤判,生成不符合用戶期望的空話、套話,內容的同質化嚴重;個別用戶輸入的“提示詞”中包含明顯的立場和傾向,這就導致生成的回復總是支持特定的觀點,缺乏呈現不同觀點或中立的態度,強化刻板印象或偏見,使得用戶和AI工具開發者可能會面臨法律風險。有時候,用戶沒有提供足夠的、技術性的上下文,得到的回復則過于抽象、簡略,缺乏專業性見解,降低了啟發性、指導性。總之,如果用戶沒有很好地掌握提問的“技巧”,將會花費較多的時間和精力,增加了工作量,容易挫傷用戶使用AI工具的積極性。

過度依賴機器,易產生“創作惰性”。當下,AI大模型模仿人類生成自然語言是基于已有的大數據,它并不能理解所生產的知識的價值與意義。而以人為主體的意義創造,是基于對人自身及其社會環境的思考,以及對人的需要的回應。因此,人的意義創造,始終是機器無法達到的。③

生成式人工智能在內容生成上所表現出的“強大”,可能會使人們認為AI有“無限”的可能,過度依賴技術手段,這勢必會影響用戶主觀能動性的發揮,滋生“創作惰性”。眾所周知,要創作生產出思想性、藝術性、觀賞性有機統一的內容產品,依靠的往往不是“靈機一動”,而是長時間的積淀、絞盡腦汁的深入思索、持續創新和反復修正。過度依賴AI技術,就會降低內容生產者主動思考、積極探索的興趣與動機,導致所生成的內容趨于雷同和平庸。另外,盡管人們對內容產品賦予極高的期待,但仍然對AI大模型能否生產出具有類似人類創新思維的創新型作品存在質疑,而“創作惰性”的出現則會強化人們的這種質疑。

生成式人工智能環境下的用戶媒介素養提升策略

增強把關能力,保證內容真實準確。生成式人工智能的用戶在使用AI工具生成內容時,需要具備一定的把關意識和把關能力,只有對生成式人工智能的工作原理和可能的失誤有所了解,才能更好地評估其輸出內容的質量,更安全可靠地使用該技術。首先,可以采用多角度、多來源對比、交叉驗證的方法,將AI生成的內容與多個可靠的外部來源,如來自政府部門、教研機構或知名組織等的信息進行比較,也可以通過查閱權威網站、學術文章和官方出版物進行比對。其次,可以分析生成的內容,邏輯是否正確、前后是否矛盾,以及是否合情理、籠統含糊等。真實的信息往往需要背景、細節和數據的支持,以及合理的解釋,注意生成內容中的細微差異和細節,這些可能是判斷內容真實性的重要線索。最后,可以借助外部資源,如通過一些事實核查網站、驗證平臺來驗證AI生成的內容,對于專業性較強的信息,可以訪問學術數據庫,查找相關學術論文,也可以直接向相關領域的專家咨詢,以獲取專業建議和科學依據。用戶還可以要求AI提供回復內容的來源或參考資料,以便核查。

培養用戶的批判意識和質疑精神。負責任的態度、質疑精神和批判意識,是合理使用生成式人工智能的前提。當感知到AI生成的內容存在問題時,需要遵循真實、客觀原則,對其主動核查、審慎處理、積極反饋,不盲信盲從,幫助AI在迭代更新中不斷修正和完善。

新技術賦予公眾更多的參與內容生產和傳播的權力,用戶需要善于質疑和評估AI工具所提供的信息,這樣才能實現對內容產業發展趨勢的把握。首先,用戶在面對AI生成的內容時,需要以嚴謹求真的態度,獨立思考,堅持理性、無偏見的分析,要敢于質疑作者或發布者的動機,進而評估內容的可信度,客觀判斷內容是否存在偏向性或誤導性,不輕信未經驗證的信息。其次,當發現AI的答復中存在含糊不清的事實或有疑問的觀點時,可以繼續提出探索性問題,追加指令,如“為什么”“你怎么知道的”“逐句分析疑點并標注需要核實的地方”“有什么證據支持這一點”等。用戶也需要善于歸納總結AI工具會在何種情況下提供錯誤答案,錯誤答案是否具有某種共同特點,這也能極大節省用戶的精力和時間成本。④最后,用戶需要清楚AI工具的能力和局限性,包括AI不能做到的事情、AI大模型中的偏見是如何從訓練數據中產生的,以及如何識別等,這有助于用戶設定自己的使用目標,不提出超越現實的期望。

強化信息安全意識。在使用AI工具生成內容的過程中,用戶需要具備對他人及自身隱私和信息的安全保護意識。首先,用戶需要積極主動地學習AI工具所提供的安全使用說明,清楚了解如何操作才能識別潛在風險,以及如何避免分享個人敏感信息、不應詢問的問題類型,充分掌握有關信息安全和隱私保護方面的知識。其次,用戶需要遵守相關的數據保護法規,掌握如何移除或隱藏個人標識,注意所生成的內容中是否有侵害他人隱私的可能。再次,用戶在選擇AI工具時,需要選擇那些允許用戶查看和刪除自身數據的工具,可以檢測出、過濾掉敏感信息,防止個人信息或重要數據被記錄或處理。最后,除了要求AI開發者及服務提供者制定必要的數據安全應急預案外,在人機對話過程中,用戶需要時刻關注隱私通知和提醒,注意賬戶的密碼安全,保持警惕性,避免在不安全的環境下使用個人信息,準確厘清一般信息和敏感信息的邊界,以免過度共享信息引發泄密。

掌握設計清晰明確“提示詞”的能力。“提示詞”是激發或引導人工智能深入思考的詞語,該詞語能夠抓住或體現所指的核心內容或特質。因此,為了提高所生成內容的質量,用戶需要培養能夠準確描述自己需求的能力,或許在AI時代,提問能力將成為拉開個體之間差距的一個關鍵點。

為了正確使用提示詞并提高內容生產的效率,首先,建議用戶由“下達指令”的操作思路轉變為“表達需求”,并盡可能地提供“任務”的背景,表明用戶的知識狀態、身份、使用目的,幫助AI準確明白用戶的意圖,有效挖掘生成式人工智能的潛能,提高生成內容的針對性。其次,使用清晰列出要點的結構化的“提示詞”。結構化的“提示詞”,有助于AI準確理解用戶的需求,指導AI生成有組織和連貫的內容。再次,簡化復雜問題,可以將復雜問題分解為多個單一的小問題來提問,分段生成,逐層深入,有助于AI提供更全面的答案。最后,用戶可以在輸入“提示詞”之前設置參數,如字數、語氣和格式等。預設參數有助于AI從一開始就與用戶的需求保持一致。另外,“角色提示技術”也是可供選擇的有效方法,即通過為大模型提供特定角色,引導AI輸出的一種方法。這種技術對于生成針對特定環境或受眾的文本頗為有效。⑤在追尋人類語言與機器語言對話一致性和目標達成的過程中,個體用戶的認知壁壘將會不斷被打破,認知邊界得到拓展,內容生產者身份也將進一步從“資源搜索匠”向“提示工程師”轉型。⑥

重視提高英文學習能力。調查顯示,以英文作為互聯網常用語言的網站占比最高。網絡技術調查網站W3techs統計,超過一半(51.2%)的網站使用英語作為內容語言。⑦截至2024年6月4日,在維基百科上檢索“互聯網上使用的語言”發現,萬維網上訪問量最大的網站中,英文主頁略超一半。⑧在學術界,很多論文系統收錄的論文也是以英文為主,使得英文知識庫覆蓋眾多領域,它們為大模型的訓練提供常用的數據資源。當前研發的AI工具大多數是支持英文的GPT模型,借助于龐大、高質量英文數據的訓練,使英文版AI工具在性能和應用范圍等方面更勝一籌。有時為了獲得理想的應答,用戶不得不先把問題翻譯為英文后,再輸入提示框中。隨著生成式人工智能的普及,英文信息的生成在質量、數量和類別等方面將會有更快速的增長,這也會反哺GPT模型在英文應答上的質量,形成良性循環。

正確認識生成式人工智能中的算法和數據。生成式人工智能的生產效率取決于AI大模型的底層算法和用于訓練的海量數據。算法是其核心,決定其性能和應用效果,而數據則是基礎資源。用戶在使用AI工具時,需要理解其基本原理、算法、數據等概念,以及算法、數據引發的歧視、偏見等問題,對算法和數據的應用和優化要有一定的正確認知。生成式人工智能的每一次迭代更新,就是在不斷地探索和優化算法、提升內容生成的精度。算法工程師的主觀性、價值觀以及機器算法的透明度問題,都會對算法的公平公正產生影響,因此,用戶需要辯證地看待算法偏見、算法歧視等風險。此外,用戶還需要清楚,人工智能生成內容首要的、決定性的起點是數據,背后邏輯是機器可以從數據和模式中學習,從而創建模仿人類行為和創造力的新內容。⑨在這一過程中,數據的采集方式、處理方法等可能受到各種因素的影響,需要承認數據本身并不是客觀的,AI所使用的數據集是人類選擇的結果,是從現實中抽象出來的。數據集不完整或質量差,就會導致偏見的出現。從萬維網上獲取文本數據,機器學習也會產生數據偏見,因為這些語言數據反映人類日常文化,其本身就含有偏見。⑩用戶在使用AI生成內容前,需要確保所依據的數據是權威部門的最新數據,通過對比不同的數據來源,以便對生成的內容作出準確判斷,此外,還需要關注所用的AI工具是否可以連入互聯網,因為社會上的萬事萬物在不斷發展,人們的思想觀點也在不斷變化,實現同步跟進,做實時的數據抓取和對比分析,關系到內容產品的質量,有助于避免生成誤導性信息。

【注:本文系人大“雙一流”建設馬克思主義新聞觀創新項目(項目編號:MXG202301)的階段性成果】

【注釋】

①[美]大衛·克羅托、[美]威廉·霍因斯著,黃典林、劉晨宇譯:《媒介·社會:技術、產業、內容與用戶》(第六版),北京:北京大學出版社,2024年,第368頁。

②吳飛:《“空間實踐”與詩意的抵抗——解讀米歇爾·德塞圖的日常生活實踐理論》,《社會學研究》,2009年第2期,第190頁。

③彭蘭:《智能與涌現:智能傳播時代的新媒介、新關系、新生存》,北京:電子工業出版社,2023年,第106頁。

④厲曉婷、王傳領:《人工智能時代用戶媒介素養的養成:機遇、挑戰及應對策略》,《中國編輯》,2023年第10期,第74—78頁。

⑤漆亞林、李文冰主編:《智能媒體發展報告(2023)》,北京:中國社會科學出版社,2023年,第109頁。

⑥喻國明、楊雅等:《生成式AI與新質生產力內容:從理論解讀到實際應用》,北京:人民郵電出版社,2024年,第148頁。

⑦Felix Richter,《The Most Spoken Languages: On the Internet and in Real Life》,https://www.statista.com/chart/26884/languages-on-the-internet/.

⑧WIKIPEDIA,《Languages used on the Internet》, https://en.wikipedia.org/wiki/Languages_used_on_the_Internet.

⑨陳昌鳳、張夢:《由數據決定?AIGC的價值觀和倫理問題》,《新聞與寫作》,2023年第4期,第15—23頁。

⑩[奧]馬克·考科爾伯格著,周薇薇、陳海霞譯:《人工智能倫理學》,上海:上海交通大學出版社,2023年,第92頁。

責編/謝帥 美編/楊玲玲

聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

[責任編輯:孫垚]