為什麼青少年更願意向 AI 說心事,而不是家人或朋友?
青少年正處於自我認同尚未穩定的階段,對於被否定、被誤解特別敏感,和人說話時意味著可能被說教、被糾正、被比較,相比之下,而 AI 不會皺眉、不會打斷、不會回一句「你想太多了」。
可以隨時開口、不需要解釋背景、不會被拒絕,這對一個情緒起伏、社交壓力大的青少年來說,無疑是個能陪伴、輕鬆又能即時得到自我認同的方式。
問題是,這份陪伴真的安全嗎?
美國佛州案:當情感依賴走向失控時
美國佛州曾發生一起令人心痛的事件,一名 14 歲少年塞策(Sewell Setze)因長時間與 AI 建立高度情感,最終走向人生盡頭,這並非單一原因造成,而是許多風險疊加的結果。
青少年容易將情感投射到能回應自己的對象身上,而 AI 的回應若缺乏適當邊界,可能強化孤立感,讓使用者逐漸把 AI 視為唯一理解自己的人,更危險的是 AI 不具備真正的道德判斷與情境理解能力。它無法像人類一樣能夠察覺危機感,也無法即時介入現實生活中。
預防的關鍵,不是禁止使用 AI,而是要建立安全邊界:
- 平台需加強青少年使用時的安全設計
- 家長與教育者應理解「孩子在 AI 得到什麼」,而不是只責怪為什麼有事情不找人
- 讓孩子知道AI 只是工具,不是情感替代品
青少年容易受影響,但 AI 也並非全然有害
不可否認,青少年心智尚未成熟,對外界回饋高度敏感,確實容易受到影響,但這並不代表 AI 對青少年只有風險,在正確引導下,AI 也可能成為:
- 情緒表達的緩衝出口:讓孩子先說出來,再引導回真實對話
- 學習與探索的輔助工具:降低提問焦慮,培養好奇心
- 自我覺察的起點:透過對話整理情緒,而非壓抑
真正的關鍵在於是否有家人或朋友在身旁並且陪伴!
結論
青少年選擇向 AI 吐露心聲,不是因為科技太過於令人著迷,而是因為現實世界太難讓孩子開口。
AI 會持續進步,但是陪伴與理解仍然需要人類來完成,且真正重要的不是讓孩子遠離 AI,而是確保當 AI 關掉時,他們依然知道可以向外求助。
若你或身邊的人正經歷情緒困擾,請務必尋求專業協助或心理,你不需要獨自承受。