Image
全國統一(one)服務熱線
0351-4073466

AI代寫愈加火熱,人(people)工智能潛在(exist)隐患又該如何防範?


編輯:2024-01-05 11:39:28

時(hour)值年末,又到(arrive)了(Got it)一(one)年一(one)度寫年終總結的(of)時(hour)候,*近,武漢的(of)一(one)家公司在(exist)朋友圈發布的(of)招聘啓事引發關注。内容說:“今年在(exist)AI的(of)協助下,大(big)緻會撰寫35萬份以(by)上報告(去年是(yes)26萬份),年底來(Come)臨,有不(No)少總結性報告要(want)寫,招多個(indivual)兼職報告撰寫人(people)員。”據了(Got it)解,有了(Got it)AI加持,這(this)家公司在(exist)精簡10%-20%人(people)力的(of)基礎上,單量卻比去年同期增加20%-30%。


此外,據報道,在(exist)某線上購物平台,輸入“年終總結AI”“代寫”等關鍵詞,立刻蹦出(out)許多相關産品。商家在(exist)産品介紹中寫下宣傳語:“AI智能原創、寫作(do)必備”“懶人(people)辦公”“三分鍾急速交稿”等。産品銷量一(one)般在(exist)幾千單左右,有的(of)店鋪月銷量達6萬單以(by)上。


随着科技快速發展,人(people)工智能(AI)應用(use)越來(Come)越廣泛,它深入到(arrive)醫療、教育、娛樂等各個(indivual)領域。如今,伴随各類年度總結任務的(of)集中湧來(Come),AI代寫業務火了(Got it),然而,這(this)看似*輕松的(of)背後,卻隐藏着巨大(big)的(of)風險!


那麽

人(people)工智能應用(use)使用(use)過程中

隐藏哪些風險呢?

下面跟着小密一(one)起來(Come)看!


圖片


人(people)工智能在(exist)促進社會發展進步的(of)同時(hour),也伴随着一(one)些風險隐患,以(by)今年爆火的(of)ChatGPT爲(for)例,若被不(No)當使用(use)或濫用(use)很有可能影響到(arrive)國家安全、社會穩定、企業利益和(and)個(indivual)人(people)用(use)戶權益等諸多方面。


而ChatGPT類大(big)模型加速了(Got it)數字世界和(and)物理世界的(of)深度融合,引領人(people)工智能進入新的(of)發展階段。與此同時(hour),人(people)工智能固有的(of)不(No)确定性、不(No)透明性、難以(by)解釋、事實性錯誤等能力局限,對經濟發展、國際政治和(and)全球治理等方面帶來(Come)深遠影響,引發了(Got it)全球對大(big)模型廣泛應用(use)安全風險的(of)熱議。如何應對人(people)工智能風險并把握人(people)工智能發展的(of)戰略主動,有效保障國家安全,已成爲(for)我(I)國國家安全治理的(of)重要(want)議題。


大(big)模型技術引發新的(of)安全風險和(and)治理挑戰。随着技術的(of)更新叠代,人(people)工智能的(of)應用(use)門檻持續降低,伴随着誤用(use)濫用(use)情況的(of)增加,經濟社會領域的(of)多重安全風險也在(exist)交織疊加。


01




隐私洩露風險





根據相關報道,ChatGPT的(of)訓練使用(use)了(Got it)45TB的(of)數據、近1萬億個(indivual)單詞(大(big)概是(yes)1351萬本牛津詞典的(of)單詞量)。其中很有可能就包括未經同意獲取的(of)個(indivual)人(people)信息。除前述海量數據外,ChatGPT還能夠在(exist)與用(use)戶一(one)對一(one)的(of)對話互動中獲取信息。


在(exist)該軟件隐私政策不(No)明了(Got it)的(of)情況下,個(indivual)人(people)信息是(yes)否會被存儲、洩露,甚至被惡意使用(use)都不(No)得而知。


02




知識産權風險





ChatGPT龐大(big)的(of)網絡語料庫中或許包含着他(he)人(people)擁有著作(do)權的(of)作(do)品,故其生(born)成的(of)文本也存在(exist)嫁接他(he)人(people)作(do)品的(of)可能性。但它在(exist)輸出(out)内容時(hour)卻未必能夠識别,也不(No)一(one)定會對用(use)戶進行提示。在(exist)沒有得到(arrive)原作(do)者授權的(of)情況下,ChatGPT産生(born)的(of)文本如果被使用(use),那麽則很有可能是(yes)使用(use)者承擔知識産權侵權的(of)法律風險。


03




虛假信息風險





盡管ChatGPT被視爲(for)有史以(by)來(Come)*智能的(of)AI,但它畢竟也不(No)是(yes)全知全能。比如在(exist)一(one)段涉及《紅樓夢》的(of)對話當中,ChatGPT就言之鑿鑿地(land)宣稱,賈寶玉是(yes)賈元春的(of)兒子。


盡管它在(exist)文字組織上的(of)确能夠做到(arrive)語句通暢,有條有理,但是(yes)并不(No)能保障内容的(of)真實準确。當用(use)戶在(exist)自己不(No)熟悉的(of)領域向ChatGPT咨詢問題時(hour),就很有可能因爲(for)這(this)些看似“高大(big)上”的(of)回複,錯信了(Got it)有誤甚至是(yes)虛假的(of)信息,從而産生(born)決策失誤、傳播虛假信息等諸多法律風險。


04




數據洩密風險




在(exist)高度智能化、自動化的(of)應用(use)場景中,ChatGPT在(exist)數據獲取、處理、結果展示等環節都存在(exist)重大(big)的(of)數據安全風險。


一(one)是(yes)數據獲取階段。用(use)戶在(exist)使用(use)ChatGPT時(hour),可能會輸入自己或他(he)人(people)的(of)信息數據,從而導緻隐私洩露。如果員工使用(use)ChatGPT輸入各類工作(do)數據,就可能導緻公司敏感信息洩露。而一(one)旦輸入涉及國家秘密或敏感内容的(of)信息,則無疑會導緻洩密。


二是(yes)數據處理階段。ChatGPT會将用(use)戶輸入、交互的(of)數據用(use)于(At)後續持續的(of)叠代訓練,這(this)就導緻這(this)些信息很可能被其他(he)用(use)戶獲取,從而構成數據非授權共享,進而出(out)現數據洩密問題。


随着人(people)工智能的(of)不(No)斷深入

我(I)們(them)在(exist)面對AI帶來(Come)的(of)種種風險時(hour)

又該如何應對呢?

且聽小密爲(for)你一(one)一(one)道來(Come)~


圖片


行業:
倡導AI技術合規使用(use)和(and)加強行業自律

第一(one),建立行業監管制度并開展合規性評估審查。建立健全AI服務行業監督管理相關制度與标準。包括算法分級分類管理、算法推薦服務安全管理、AI 濫用(use)舉報等,并開展AI應用(use)安全合規性評估審查與處置,實現行業監管閉環。

第二,創新研究應用(use)人(people)工智能賦能網絡安全技術。一(one)方面,利用(use)AI技術賦能針對複雜網絡攻擊的(of)防禦能力,使用(use) AI 技術應對其帶來(Come)的(of)網絡安全風險;另一(one)方面,研究利用(use)AI技術提升企業組織在(exist)網絡安全攻擊檢測、數據資産識别與風險監測、業務安全風控、不(No)良信息識别、電信反詐、安全威脅分析、深度僞造識别等方面的(of)能力。

第三,做好元宇宙等AI融合場景的(of)安全風險梳理與防護技術儲備。對于(At)元宇宙和(and)AI融合關鍵場景,要(want)抓緊開展安全技術研究儲備,提早防範大(big)規模人(people)工智能安全事件發生(born)。


圖片


企業:加強AI安全防護體系建設


PART.01





一(one)是(yes)制定出(out)台企業組織AI安全總體策略,編制企業标準規範與技術指南;


PART.02





二是(yes)配備AI安全領域專業人(people)員,支撐AI安全新技術新業務安全風險評估與創新技術研究;


PART.03





三是(yes)對員工在(exist)日常工作(do)或對外服務中使用(use)ChatGPT等AI應用(use)行爲(for)進行規範,防範企業組織及客戶數據洩露等風險;


PART.04





四是(yes)強化安全技術手段建設,建設涵蓋網絡安全、算法安全、數據安全與隐私保護等功能的(of)AI安全管控能力,爲(for)企業組織的(of)AI能力與應用(use)提供安全防護,保障AI業務健康發展。


圖片


個(indivual)人(people)如何防範人(people)工智能潛在(exist)隐患


對于(At)個(indivual)人(people)而言,除了(Got it)避免陷入虛假宣傳,更重要(want)的(of)是(yes)面對花樣翻新的(of)AI詐騙,必須保持防範意識。


保護信息,提高警惕。公衆要(want)謹慎提交個(indivual)人(people)信息及企業數據,防範AI應用(use)個(indivual)人(people)隐私竊取、有害言論誤導誘導等風險,防範利用(use)ChatGPT熱點或者仿冒知名AI應用(use)收集敏感信息實施詐騙等行爲(for)。


多重驗證,确認身份。如果有人(people)自稱"熟人(people)""領導"等通過社交軟件、短信以(by)各種理由誘導彙款,或涉及網絡轉賬交易行爲(for)時(hour),務必通過電話、見面等多途徑核驗對方身份,不(No)要(want)未經核實随意轉賬彙款。


如不(No)慎被騙或遇可疑情形,請注意保護證據,并立即撥打96110報警。




小密提醒


随着AI産品的(of)不(No)斷更新,不(No)少AI軟件推出(out)了(Got it)公文寫作(do)闆塊,人(people)工智能開始悄然影響公文寫作(do)等日常政務工作(do),作(do)爲(for)機關、單位幹部職工,如果偷懶用(use)AI代寫,各種文件和(and)數據洩露的(of)後果将不(No)堪設想!


不(No)僅如此,由于(At)AI寫作(do)内容相對比較籠統,語言僵硬,不(No)貼合實際情況,使用(use)過程中還可能涉及信息洩露風險、侵犯知識産權等法律問題,所以(by)小密建議大(big)家,在(exist)工作(do)中盡量不(No)要(want)使用(use)AI寫作(do),多積累理論知識和(and)實踐案例,才能成爲(for)真正的(of)“筆杆子”!

圖片




END



來(Come)源:成華密語

Image
Image
版權所有:山西科信源信息科技有限公司  
咨詢熱線:0351-4073466 
地(land)址:(北區)山西省太原市迎澤區新建南路文源巷24号文源公務中心5層
           (南區)太原市小店區南中環街529 号清控創新基地(land)A座4層
Image
©2021 山西科信源信息科技有限公司 晉ICP備15000945号 技術支持 - 資海科技集團