突發!萬億巨頭出手:禁止!
1年前
突發!萬億巨頭出手:禁止!
中國基金報 晨曦 綜合整理 自誕生之日起即炙手可熱的ChatGPT,因安全風險而廣受科技巨頭們審視,這一次出手的是萬億巨頭三星。 據外媒報道,近期三星電子已在內部備忘錄告知員工,停止使用ChatGPT和Bard等生成式AI工具,理由是擔心會帶來安全風險。 三星的擔心並非空穴來風。據此前消息顯示,三星電子引入聊天機器人ChatGPT不到20天就發生了3起涉及ChatGPT的事故。與此同時,目前多家國際投行及科技公司均對ChatGPT持謹慎態度。 不過,雖然暫停員工使用ChatGPT類工具,但這並不意味着三星對AI採取封閉式態度。據國外科技媒體報道,近日三星向旗下所有的手機以及平板電腦產品推送了微軟BingAI更新,在這一更新完成後,三星用戶可直接通過手機或者平板使用微軟BingAI。 來看詳情—— 禁止員工使用生成式AI 違者可能遭解僱 據外媒周一報道,三星電子已在內部備忘錄告知員工,停止使用ChatGPT和Bard等生成式AI工具,理由是擔心會帶來安全風險。 報道稱,內部備忘錄表示,三星電子擔心傳輸到谷歌Bard和微軟Bing等人工智能平台的數據存儲在外部服務器上,難以檢索和刪除,最終可能會泄露給其他用戶。 內部備忘錄顯示,三星電子上個月進行了一項關於內部使用AI工具的調查,其中65%的受訪者認爲此類服務存在安全風險。今年4月初,三星工程師將內部源代碼上傳到了ChatGPT,目前還不清楚這些信息包含什么。 與此同時,三星正在开發自己的內部AI工具,用於翻譯和總結文件以及軟件开發,還在研究阻止敏感公司信息上傳到外部服務的方法。“總部正在審查安全措施,以創造一個安全的環境,以安全地使用生成式AI來提高員工的生產力和效率。但是,在准備好這些措施之前,我們暫時限制生成式AI的使用。” 據了解,三星電子的新政策禁止在公司自有的電腦、平板電腦和手機以及內部網絡上使用生成式AI系統,不會影響銷售給消費者的設備,例如Android智能手機和Windows筆記本電腦。 另外三星在備忘錄中表示:“我們要求您認真遵守我們的安全指南,否則可能會導致公司信息泄露,違者進行紀律處分,甚至包括解僱。” 曾出現資料外泄事故 不到20天3起 三星此次採取備忘錄的方式提醒全體員工之舉,並非空穴來風。 據此前消息顯示,三星電子引入聊天機器人ChatGPT不到20天就發生了3起涉及ChatGPT的事故。3起事故中,其中2起與半導體設備有關,另一起與內部會議有關。具體爲: 案件一,三星設備解決方案部門的職員A在半導體設備測量資料庫下載軟件時,發現源代碼出現錯誤,便將有問題的部分復制到ChatGPT中尋找解決方案。 案件二同樣發生在設備解決方案部門,職員B將用於識別產品良率的程序代碼輸入進ChatGPT,要求其優化代碼。 案件三是該部門的職員C爲了制作會議記錄,將手機上的會議內容轉換爲文檔,之後將文檔輸入進ChatGPT。 相關報道稱,前兩起案件已分別導致三星公司的半導體設備測量資料、產品良率等機密內容錄入到ChatGPT的學習資料庫中。 不難發現,上述三起泄密事件均發生在三星電子半導體暨裝置解決方案(Device Solutions)部門。此前,三星曾因擔憂內部機密外泄而禁用ChatGPT,但基於半導體是“生成式AI”的建構基礎,三星自3月11日起允許DS部門使用ChatGPT。 對於上述泄密事件,三星方面回應,已加強ChatGPT相關的安全措施,將進一步收緊內部監管和員工培訓。公司還特地發布公告叮囑員工注意使用ChatGPT的方式,如果再次發生類似事件,內部可能會切斷ChatGPT服務。 三星通過內部公告警示說:“在ChatGPT中輸入內容的瞬間,數據就會發送到外部服務器並存儲,公司無法收回。如果ChatGPT學習相關內容,敏感內容可能會提供給不特定的多數人。” 已推送微軟Bing AI更新 雖然暫停員工使用ChatGPT類工具,但這並不意味着三星對AI採取封閉式態度。 據外媒報道,三星近日向旗下所有的手機以及平板電腦產品推送了微軟Bing AI更新,在這一更新完成後,三星用戶可直接通過手機或者平板使用微軟Bing AI。
編輯:艦長 審核:木魚
追加內容
本文作者可以追加內容哦 !
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:突發!萬億巨頭出手:禁止!
地址:https://www.breakthing.com/post/55852.html