習近平總書記在2018年8月全國宣傳思想工作會議上的講話指出,必須科學認識網(wǎng)絡(luò)傳播規(guī)律,準確把握網(wǎng)上輿情生成演化機理,不斷推進工作理念、方法手段、載體渠道、制度機制創(chuàng)新,提高用網(wǎng)治網(wǎng)水平。
如何科學認識網(wǎng)絡(luò)傳播規(guī)律?本系列文章會結(jié)合輿論傳播、社交網(wǎng)絡(luò)、社會心理和大數(shù)據(jù)等綜合常見的網(wǎng)絡(luò)傳播規(guī)律,希望可以通過這些規(guī)律的解讀幫助黨政機關(guān)認識網(wǎng)絡(luò)傳播規(guī)律,從而加快建立網(wǎng)絡(luò)綜合治理體系,提高綜合治網(wǎng)能力。
2022年1月,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》?!兑?guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當按照國家有關(guān)規(guī)定開展安全評估,不得利用算法實施影響網(wǎng)絡(luò)輿論、規(guī)避監(jiān)督管理以及壟斷和不正當競爭行為。
為什么國家如此重視算法?本文嘗試從傳播學的守門人理論加以解釋。
傳媒中所說的守門人理論也叫把關(guān)人理論。社會心理學家K.勒溫在《群體生活的渠道》中提出:“守門人”就是在信息傳播過程中,決定讓哪一種信息通過的人或機構(gòu)。后來他的學生大衛(wèi)·懷特在《守門人:新聞選擇的個案研究》中提出新聞傳播領(lǐng)域的“守門”過程模式,即通過對輸入信息和輸出信息的對比,考察信息被過濾和篩選的機制?!笆亻T”是對應(yīng)該收集、評估并最終共享哪些信息做出判斷或決策。守門人實際上控制著大眾能主要接觸到哪些信息。
傳統(tǒng)媒體中,一般由報社和電視臺的編輯充當著“守門人”的角色。他們決定該發(fā)表哪些文章,該采訪哪些人物。但到了網(wǎng)絡(luò)時代,則有了很大的變化。
如何讓用戶看到自己想看的內(nèi)容,在網(wǎng)絡(luò)時代也經(jīng)過了很多的變化。一開始的門戶網(wǎng)站時代,用戶主動打開163、sina等網(wǎng)站,然后看網(wǎng)頁上排版的新聞信息,門戶網(wǎng)站相當于一個可以快速發(fā)行的報紙時代,讓網(wǎng)民看到哪些信息,更多的是把控在網(wǎng)站編輯的手中。這時的守門人和傳統(tǒng)媒體的守門人類似,但頻率更高。
后來微博、微信(公眾號和朋友圈)這樣的社交網(wǎng)絡(luò)崛起,信息更多的變?yōu)榱擞嗛喭扑蜋C制,用戶先關(guān)注自己感興趣的內(nèi)容,后續(xù)內(nèi)容更新后在推送給用戶。守門人的角色被淡化,平臺方和平臺上的大V實際實行了守門人的角色。
在今日頭條和抖音爆火之后,網(wǎng)絡(luò)時代的守門人再次有了變化。用戶不再需要主動訂閱頻道或大V,只需要被動的接受平臺推送即可。平臺根據(jù)用戶的屬性和歷史操作,用推薦算法來決定推送給用戶什么樣的內(nèi)容。這時的守門人實際變?yōu)榱似脚_本身的推薦算法。
看下抖音在《互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)》系統(tǒng)中一個典型的算法:抖音個性化推薦算法:算法基于系統(tǒng)收集的用戶設(shè)備信息、位置信息以及在使用產(chǎn)品時的行為信息(行為信息包括用戶在訪問/使用產(chǎn)品時的點擊、關(guān)注、收藏、搜索、查詢、瀏覽、下載、分享及交易的操作相關(guān)記錄),通過對上述信息進行自動分析和計算,根據(jù)計算結(jié)果從信息候選池中篩選出用戶可能更感興趣的內(nèi)容進行推送。抖音個性化推薦算法會根據(jù)用戶在使用產(chǎn)品過程中的瀏覽行為對推薦模型進行實時反饋,不斷調(diào)整優(yōu)化推薦結(jié)果,更好地向用戶提供優(yōu)質(zhì)內(nèi)容。
現(xiàn)如今,推薦算法幾乎已經(jīng)在所有的大型的互聯(lián)網(wǎng)平臺上都有著廣泛的應(yīng)用。
雖然頭條在一開始提出的口號“你關(guān)心的才是頭條”是很討群眾喜歡,用戶可能認為自己掌控了算法,但實際可能是反過來的?;ヂ?lián)網(wǎng)平臺的推薦算法的首要目的,是為平臺服務(wù)。目前的互聯(lián)網(wǎng)平臺基本都為上市公司,日活、用戶在線時長等各種數(shù)據(jù)是其重要指標。算法首先會為指標服務(wù)。為了滿足指標,算法會利用各種人性弱點來吸引用戶留在平臺。這些精巧設(shè)計,擅長利用人體神經(jīng)細胞的運作機制,擅長利用人性弱點的算法,不斷精益求精,精巧推薦讓用戶感興趣的內(nèi)容,讓人不由自主深陷其中,不能自拔。
《紐約時報》在一篇報導中提到,“算法決定每個用戶看到的動態(tài),它的核心使命是推廣能夠最大化用戶參與度的內(nèi)容。研究發(fā)現(xiàn),凡是能夠挑動憤怒以及恐懼等負面、原始的情緒的帖子,其閱讀數(shù)量將會激增。” 一名哈佛大學的研究主管甚至表示“社交媒體被用來傳播錯誤信息放大問題、模仿社會運動、推動陰謀”, “錯誤信息是社交媒體的一個特征,而不是漏洞?!?/span>
實際上,我們也在系列文章的前幾篇提到過推薦算法來帶的問題,包括群體極化、沉默的螺旋和塔西佗陷阱中都和推薦算法有直接或間接關(guān)聯(lián)。
為了治理推薦算法帶來的問題,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》里做了多個相關(guān)的規(guī)定,如“算法推薦服務(wù)提供者應(yīng)當加強用戶模型和用戶標簽管理,完善記入用戶模型的興趣點規(guī)則和用戶標簽管理規(guī)則,不得將違法和不良信息關(guān)鍵詞記入用戶興趣點或者作為用戶標簽并據(jù)以推送信息?!?“鼓勵算法推薦服務(wù)提供者綜合運用內(nèi)容去重、打散干預(yù)等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛?!?/span>
最近一段時間,國家層面已經(jīng)出臺了多個關(guān)于算法治理的法律法規(guī)。也建立了《互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)》對算法備案。從宏觀層面已經(jīng)基本得到了控制。從微觀層面來看:
1. 推薦算法下,違法信息等擴散的速度相較于之前會大幅提升。需要借助專業(yè)的輿情監(jiān)測工具如鷹眼速讀網(wǎng)等做好監(jiān)測。對推薦算法的主流應(yīng)用短視頻類APP同樣需要做好輿情監(jiān)測工作。近期起源于短視頻類的輿情事件層出不窮。
2. 推薦算法是基于大數(shù)據(jù)的,千人千面,所以很難監(jiān)督管理。對當?shù)氐挠型扑]算法的社交媒體平臺,需要定期做專業(yè)的大數(shù)據(jù)輿情分析報告,觀察其是否貫徹了《互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)》里的要求,以及其算法是否符合備案系統(tǒng)里的備案內(nèi)容。
同系列文章:
科學認識網(wǎng)絡(luò)傳播規(guī)律系列文章 —《輿論中的群體極化現(xiàn)象》
科學認識網(wǎng)絡(luò)傳播規(guī)律系列文章 —《輿論中的模因》
科學認識網(wǎng)絡(luò)傳播規(guī)律系列文章 —《輿論中的立體化傳播效應(yīng)》
科學認識網(wǎng)絡(luò)傳播規(guī)律系列文章 —《輿論中的沉默的螺旋、反沉默螺旋和雙螺旋效應(yīng)》
科學認識網(wǎng)絡(luò)傳播規(guī)律系列文章 —《輿論中的塔西佗陷阱》
(部分文字、圖片來自網(wǎng)絡(luò),如涉及侵權(quán),請及時與我們聯(lián)系,我們會在第一時間刪除或處理侵權(quán)內(nèi)容。電話:4006770986郵箱:zhangming@eefung.com負責人:張明)