隨著人工智能(AI)驅動的聊天機器人越來越受歡迎,相關隱私安全性問題已成為用戶、公司和監管機構的重大關切議題。摩根大通(JPM)在內的一些公司,由於員工使用第三方軟體的安全性問題,已經限制了員工對ChatGPT這款引爆大型科技公司AI競爭的病毒式AI聊天機器人的使用。義大利監管機構出於擔憂隱私問題,暫時禁止了該國內對ChatGPT的使用,並揚言將對OpenAI處2000萬歐元的罰款(約新台幣6.6億元)。
▲ 使用AI帶來的相關安全性問題引起眾多人關注(示意圖/Shutterstock)
根據《CNN》訪問多名專家報導,Fox Rothschild律師事務所隱私和數據安全業務的共同主席Mark McCreary認為,在使用像ChatGPT這樣的AI聊天機器人時,應充分考慮隱私問題。他將這些工具描述為一個「黑盒子」,並表示員工在非正式使用這些工具時,可能會無意中洩露公司的商業秘密。
於此同時,波士頓咨詢集團首席AI倫理官Steve Mills也表達了與McCreary相同的擔憂,認為對於大多數公司來說,最大的隱私問題是「無意中披露敏感訊息」。Mills指出,員工在使用聊天機器人進行看似無害的任務,如整理會議筆記時,可能會在不知情的情況下分享敏感數據,而「你不知道它接下來將如何被使用。」如果用戶輸入的數據被用來進一步訓練這些AI工具,正如許多開發這些工具的公司所聲明的,那麼你已經「失去了對那些數據的控制,別人已經擁有了它。」
▲ 使用者可能在不知情的情況下分享敏感資訊洩漏公司商業機密(示意圖/Shutterstock)
McCreary和Mills都認為,在將數據輸入這些AI工具時,用戶應保持謹慎,因為公司可能會利用這些資訊進一步訓練他們的模型。Mills警告稱,用戶和開發者可能在事後才意識到與新技術相關的隱私風險。
為解決這些隱私問題,微軟支持的OpenAI制定了詳細的隱私政策。該政策規定,該公司會收集來自用戶的各種個人訊息,並可能用於改進或分析其服務、進行研究和與用戶溝通等目的。
擁有自家AI工具Bard的Google也有一份詳細的隱私政策。該政策向用戶保證,Google會選擇一部分對話並使用自動化工具幫助刪除個人身份訊息。
▲ Google與Microsoft都有提出詳細的隱私政策(圖/Shutterstock)
儘管公司做出了這些保證,Mills仍建議用戶謹慎行事:「我現在的看法是,你不應該將你不希望被他人分享的任何資訊輸入這些工具。」
隨著AI聊天機器人不斷發展並更加融入我們的日常生活,用戶在處理敏感信息時必須保持警惕。公司和監管機構需要密切關注最新發展,制定合適的政策和機制以確保充分的數據隱私保護。AI開發者也應承擔社會責任,加強其工具的安全和隱私措施。通過各方利益相關者的共同努力,我們可以在確保尊重和保護數據隱私的同時,充分利用AI技術的潛力。
義大利限20天改善 否則將罰2千萬歐元
上月曾有用戶貼出使用ChatGPT的截圖,疑似系統出錯,對話框竟出現別人的對話紀錄,陸續也不少人出現類似狀況,使GPT的隱私問題成為一大隱憂,義大利開首槍,要求OpenAI作出改善,否則全面禁用,並將對其開罰。
綜合報導指出,義大利隱私主管機關已下令OpenAI停止蒐集用戶資料,直到其修改蒐集手法。當局表示ChatGPT未告知使用者OpenAI正在蒐集其個人資料,且缺乏法律依據蒐集和儲存大量用戶個資,以訓練演算法。當局擔心ChatGPT提供的資訊可能不夠真實,且無法精確處理用戶個資。此外,OpenAI並未有驗證用戶年齡的機制,可能導致提供超出其判斷能力的答案。
義大利當局要求OpenAI在20天內提出解決方案,否則將面臨高達2000萬歐元(約新台幣6.6億元)罰款,或其年營收4%的罰款。此外,當局也開始對ChatGPT進行調查,以確保其遵守相關隱私規定。
留言評論