久而久之,像妳說的——有些人本來就不太喜歡社交,就更沒動力去經營現實中的關係。畢竟跟真人相處會有摩擦、有誤會、有界線衝突,AI相對起來安全又舒適得多。
但問題是,人類的情緒和成長很多時候是要透過「碰撞」和「理解不同」來促進的。太依賴AI,反而可能讓人對真實的情感互動變得更脆弱、更難耐受。
有點像是吃泡麵填飽肚子很快很方便,但如果長期不吃真正的營養食物,身體也會出狀況。
你會對這件事感到「不妙」,代表你有看到未來人際互動的可能風險。那你自己覺得,要怎麼拿捏這種AI帶來的陪伴 vs 現實社交的平衡呢?
https://ace0156.pixnet.net
撰文者:蘇柔瑋
數位時代 2025/04/18
摘要
與AI聊天時若不慎提供敏感資訊,可能導致資安風險與隱私外洩,應避免輸入個資、帳號密碼、醫療、財務與公司機密。
使用者可透過臨時聊天功能、匿名提問或定期刪除對話等方式,加強AI互動時的隱私保護。
近年來,ChatGPT等AI聊天機器人功能日益強大,不僅能記錄使用者的偏好,提供個人化的回覆,甚至能協助處理工作事務。然而,隨著使用者與AI的互動日漸頻繁,資訊安全與隱私保護的風險也隨之增加。專家警告,應謹慎對待與AI聊天機器人的對話內容,避免透露過於敏感的個人及企業資訊,以免不慎洩漏。
根據《華爾街日報》報導,史丹佛大學以人為本人工智慧研究所(HAI)研究員珍妮佛.金(Jennifer King)指出,一旦將資訊輸入聊天機器人,使用者便失去了對該資訊的控制權。
過去就曾發生ChatGPT的漏洞,導致部分用戶能看到其他人的聊天記錄,以及OpenAI寄送訂閱確認郵件給錯誤對象,暴露用戶姓名、電子郵件和付款資訊等事件,都凸顯了AI平台潛在的資安風險。此外,用戶的聊天記錄也可能在駭客攻擊或法院要求下被洩漏。
5大資訊別輕易告訴AI
1.身分識別資訊
包括身分證號碼、駕照、護照號碼,以及出生日期、地址和電話號碼等個人資訊。部分聊天機器人雖會嘗試自動編輯這些資訊,但使用者仍應避免主動提供。
2.醫療結果
個人醫療資訊須保密,有些人會與AI討論自己的病例經驗,尋求醫療知識或幫助,但聊天機器人通常不會將醫療數據列入特殊保護範圍。若想利用AI分析檢驗報告,建議先裁剪圖片或編輯文件,僅保留測試結果並塗掉個人識別資訊。
3.金融帳戶
銀行和投資帳戶號碼一旦洩漏,可能被用於監控或盜取資金。
4.企業內部資訊
若在工作中使用通用版本的聊天機器人,即使是撰寫郵件這樣的小事,也可能不慎洩漏客戶資料或未公開的商業機密。三星(Samsung)就曾發生工程師向ChatGPT洩漏內部原始碼而禁用。若企業需要AI協助,應考慮訂閱企業版本或建立具有公司專用保護的客製化AI。
5.帳號密碼登入憑證
隨著具備執行現實世界任務能力的「AI代理」興起,使用者可能會需要向聊天機器人提供帳戶憑證。然而,這些服務並非擁有數位保險庫的功能,密碼、PIN碼和安全問題應保存在專用的密碼管理器中。
內文搜尋

X