人工智慧聊天機器人問世已久,但諸如ChatGPT和Google Bard等大型語言模型的崛起,為聊天機器人產業注入了新的活力。
如今,全球數百萬人正在使用人工智慧聊天機器人。但如果您也想嘗試使用這類工具,則必須謹記一些重要的隱私風險和考量。
1. 資料收集
大多數人使用聊天機器人,不僅僅是為了打聲招呼。現代聊天機器人旨在處理和回應複雜的問題和請求,使用者通常會在提示中加入大量資訊。即使您只是提出一個簡單的問題,您也不會希望它超出您對話的範圍。
根據OpenAI支援中心所述,您可以隨時刪除您的ChatGPT聊天記錄,這些記錄將在30天後從OpenAI的系統中永久刪除。然而,如果某些聊天記錄被標記為有害或不當內容,該公司將保留並審查這些記錄。
另一個熱門的人工智慧聊天機器人Claude也會追蹤您之前的對話。 Anthropic的支援中心表示,Claude會追蹤「您在產品中的提示和輸出,以便根據您的控制,隨著時間的推移為您提供一致的產品體驗」。您可以刪除與Claude的對話,這樣它就會忘記您一直在談論的內容,但這並不代表Anthropic會立即從其系統中刪除您的記錄。
這自然引出一個問題:我的資料是否被保留?ChatGPT或其他聊天機器人是否會使用我的資料?
但擔憂不僅僅於此。
ChatGPT如何學習?
為了提供資訊,大型語言模型需要使用龐大的資料進行訓練。根據《科學焦點》報導,僅ChatGPT-4在訓練期間就輸入了3000億字的資訊。這些資訊並非直接取自百科全書。相反,聊天機器人開發者會使用來自網際網路的大量資訊來訓練他們的模型。這些資訊可能包括來自書籍、電影、文章、維基百科條目、部落格文章、評論,甚至是評論網站的資料。
請記住,根據聊天機器人開發者的隱私權政策,上述某些來源可能不會在訓練中使用。
許多人批評ChatGPT,聲稱它在隱私方面是個噩夢,且不可信任。那麼,為何會有這種說法呢?
這就是事情變得有點模糊的地方。如果您直接詢問ChatGPT-3.5是否可以存取產品評論或文章評論,您會得到否定的答案。正如您在下面的螢幕截圖中看到的,GPT-3.5聲稱它在訓練中沒有獲得存取使用者文章評論或產品評論的權限。
相反地,它是使用「網際網路上各種文字進行訓練的,包括網站、書籍、文章和其他公開書面材料,直至2021年9月。」
但GPT-4的情況也一樣嗎?
當我們詢問GPT-4時,我們被告知「OpenAI在聊天機器人的訓練期間沒有使用特定的使用者評論、個人資料或文章評論」。此外,GPT-4告訴我們,它的回應是根據「數據中的模式」所生成的[它]接受的訓練,主要包括書籍、文章和來自網路的其他文字。」
當我們進一步探究時,GPT-4聲稱,某些社群媒體內容確實可能包含在其訓練資料中,但創作者將始終保持匿名。GPT-4特別指出,「即使來自Reddit等平台的內容是訓練資料的一部分, [它不會]存取特定的評論、貼文或任何可以連結回單一使用者的資料。」
GPT-4回應中另一個值得注意的部分是「OpenAI尚未明確列出所使用的每個資料來源」。當然,OpenAI很難列出3000億字的來源,但這確實留下了猜測的空間。
在一篇Ars Technica的文章中,指出ChatGPT確實會收集「未經同意而獲得的個人資訊」。同一篇文章中,提到了上下文完整性的概念,即僅在最初使用某人資訊的上下文中使用該資訊。如果ChatGPT破壞了這種上下文完整性,人們的資料可能會面臨風險。
另一個值得關注的問題是OpenAI是否遵守通用資料保護條例 (GDPR)。這是歐盟為了保護公民資料而實施的一項法規。由於擔心ChatGPT的GDPR合規性,包括義大利和波蘭在內的數個歐洲國家已對ChatGPT展開調查。由於隱私問題,ChatGPT一度在義大利被禁止。
由於計劃中的人工智慧法規,OpenAI過去曾威脅要退出歐盟,但此後已撤回。
ChatGPT可能是當今最大的人工智慧聊天機器人,但聊天機器人的隱私問題並非由該供應商開始和結束。如果您使用隱私政策不清晰的可疑聊天機器人,您的對話可能會被濫用,或者其訓練資料中可能會使用高度敏感的資訊。
2. 資料竊盜
與任何線上工具或平台一樣,聊天機器人很容易遭受網路犯罪。即使聊天機器人竭盡全力保護使用者及其資料,精明的駭客總是有機會滲透其內部系統。
如果給定的聊天機器人服務正在儲存您的敏感資訊,例如您的高級訂閱的付款詳細資訊、聯絡資料或類似資訊,那麼如果發生網路攻擊,這些資訊可能會被竊取和利用。
如果您使用的聊天機器安全性較低,而其開發人員尚未投資足夠的安全保護,則尤其如此。如果沒有登入警報或身分驗證層,不僅公司的內部系統可能被駭客攻擊,而且您自己的帳戶也有可能被洩露。
既然人工智慧聊天機器人如此流行,網路犯罪分子自然會蜂擁而至,利用這個產業進行詐騙。自OpenAI的聊天機器人於2022年底成為主流以來,虛假ChatGPT網站和外掛程式一直是一個主要問題,人們陷入詐騙,並在合法性和信任的幌子下洩露個人資訊。
2023年3月,MUO報導了一個假的ChatGPT Chrome擴充功能竊取Facebook登入資訊的事件。該外掛程式可以利用Facebook後門來破解知名帳戶並竊取使用者cookie。這只是眾多旨在欺騙不知情受害者的虛假ChatGPT服務的一個例子。
3. 惡意軟體感染
如果您在不知情的情況下使用了可疑的聊天機器人,您可能會發現該聊天機器人為您提供了惡意網站的連結。也許聊天機器人已經提醒您有一個誘人的贈品,或提供了其中一項聲稱的來源。如果服務營運商有非法意圖,則該平台的全部目的可能是透過惡意連結傳播惡意軟體和詐騙。
或者,駭客可能會破壞合法的聊天機器人服務並用其傳播惡意軟體。如果這個聊天機器人恰好是人,那麼數千甚至數百萬使用者將暴露於這種惡意軟體。假冒的ChatGPT應用程式甚至已經出現在Apple App Store中,因此最好小心行事。
一般來說,在通過連結檢查網站運行聊天機器人之前,您絕對不應該點擊聊天機器人提供的任何連結。這可能看起來很煩人,但最好確保您所訪問的網站沒有惡意設計。
此外,在未首先驗證其合法性的情況下,您不應該安裝任何聊天機器人外掛程式和擴充功能。針對該應用程式進行一些研究,看看它是否得到了良好的評價,並搜尋該應用程式的開發者,看看是否發現任何可疑之處。
聊天機器人並非不受隱私問題的影響
與當今大多數線上工具一樣,聊天機器人因其可能存在的安全和隱私缺陷而多次受到批評。無論是聊天機器人供應商在使用者安全方面偷工減料,還是持續存在網路攻擊和詐騙風險,了解聊天機器人服務正在收集您的哪些資訊,以及是否採取了足夠的安全措施,都至關重要。