為什麼青少年更願意向 AI 說心事,而不是家人或朋友?

青少年正處於自我認同尚未穩定的階段,對於被否定、被誤解特別敏感,和人說話時意味著可能被說教、被糾正、被比較,相比之下,而 AI 不會皺眉、不會打斷、不會回一句「你想太多了」。

可以隨時開口、不需要解釋背景、不會被拒絕,這對一個情緒起伏、社交壓力大的青少年來說,無疑是個能陪伴、輕鬆又能即時得到自我認同的方式。

問題是,這份陪伴真的安全嗎?

美國佛州案:當情感依賴走向失控時

美國佛州曾發生一起令人心痛的事件,一名 14 歲少年塞策(Sewell Setze)因長時間與 AI 建立高度情感,最終走向人生盡頭,這並非單一原因造成,而是許多風險疊加的結果。

青少年容易將情感投射到能回應自己的對象身上,而 AI 的回應若缺乏適當邊界,可能強化孤立感,讓使用者逐漸把 AI 視為唯一理解自己的人,更危險的是 AI 不具備真正的道德判斷與情境理解能力。它無法像人類一樣能夠察覺危機感,也無法即時介入現實生活中。

預防的關鍵,不是禁止使用 AI,而是要建立安全邊界:

  • 平台需加強青少年使用時的安全設計
  • 家長與教育者應理解「孩子在 AI 得到什麼」,而不是只責怪為什麼有事情不找人
  • 讓孩子知道AI 只是工具,不是情感替代品

青少年容易受影響,但 AI 也並非全然有害

不可否認,青少年心智尚未成熟,對外界回饋高度敏感,確實容易受到影響,但這並不代表 AI 對青少年只有風險,在正確引導下,AI 也可能成為:

  • 情緒表達的緩衝出口:讓孩子先說出來,再引導回真實對話
  • 學習與探索的輔助工具:降低提問焦慮,培養好奇心
  • 自我覺察的起點:透過對話整理情緒,而非壓抑

真正的關鍵在於是否有家人或朋友在身旁並且陪伴!

結論

青少年選擇向 AI 吐露心聲,不是因為科技太過於令人著迷,而是因為現實世界太難讓孩子開口。

AI 會持續進步,但是陪伴與理解仍然需要人類來完成,且真正重要的不是讓孩子遠離 AI,而是確保當 AI 關掉時,他們依然知道可以向外求助。

 

若你或身邊的人正經歷情緒困擾,請務必尋求專業協助或心理,你不需要獨自承受。