主頁 >  專家解碼 >  AI聊天 | 人工智能可療癒自己?用AI做心理健康支援可行?

AI聊天 | 人工智能可療癒自己?用AI做心理健康支援可行?

香港心理學會輔導心理學部
香港心理學會支部
日期: 2025-09-24

深夜兩點,你輾轉難眠,腦海中盤旋著白天的焦慮與不安。想找朋友傾訴,卻擔心打擾他人;預約心理輔導,最快也要等到翌日才能安排。於是,你拿起手機,打開某個心理支援應用程式,開始與人工智能(AI)聊天工具對話……這樣的場景,正逐漸成為現代人尋求心理支援的新常態。

隨著科技迅速發展,人工智能已逐步滲透至心理健康領域。各種標榜能提供情緒支援的AI聊天工具和應用程式如雨後春筍般湧現,承諾提供24小時全天候的即時心理支援服務。但這些沒有溫度的程式,真的能療癒我們的心靈嗎?

AI心理支援的功能與潛力

現階段的AI心理支援工具主要提供以下幾項功能:
  • 早期篩檢:透過分析使用者的語言模式與行為數據,AI能初步識別出可能需要專業幫助的人士。
  • 情緒追蹤:許多應用程式可記錄日常情緒變化,幫助使用者了解自己的情緒波動規律。
  • 心理教育:AI能提供基礎心理健康知識與技巧,例如引導使用者進行呼吸、靜觀或認知重整練習。
  • 互動式支持:透過自然語言處理技術,AI能模擬人類對話,提供即時回應與情緒陪伴。

AI聊天 | 人工智能可療癒自己?用AI做心理健康支援可行?

一項研究發現,參與者在使用AI聊天機器人八週後,憂鬱、焦慮和飲食失調等症狀明顯改善,效果比沒有使用AI的對照組更好,顯示AI在某些情境下具備療癒潛力。

AI心理支援的潛在風險

儘管AI展現出一定的心理支援能力,但其潛在風險不容忽視。斯坦福大學的一項研究顯示,某些AI工具對酒精依賴與精神分裂症表現出更高的污名化態度,可能導致使用者中斷治療,反映AI聊天機器人可能存在偏見,為使用者帶來負面經驗。更令人憂心的是,AI在面對危機情境時的反應可能不當。例如,在模擬情境中,當使用者詢問25米以上橋樑的資訊時,AI直接提供橋樑資料,未能辨識背後可能的自殺意圖。這類回應可能助長危險行為,甚至導致悲劇。

AI聊天 | 人工智能可療癒自己?用AI做心理健康支援可行?

此外,針對青少年使用AI聊天機器人的研究亦揭示了嚴重問題。研究人員模擬青少年與三款熱門AI夥伴互動,發現這些工具容易在性、自殘、暴力、吸毒及種族刻板印象等議題上產生不當對話。即使使用者明確表示為未成年人,AI仍可能提供性暗示或合理化虐待行為的回應。研究再指出,由於 AI不會提出反對意見、不會有負面情緒、也不會設定界限,無論青少年說什麼,它都會盡力迎合,給出他們想聽的答案。這種「無限迎合」的互動模式,可能讓青少年誤以為人際關係應該是絕對順從、無衝突的,進而妨礙他們在現實生活中建立健康關係、設定界限與培養同理心。

AI使用建議

  1. 避免依賴AI作為唯一支援:AI可以在非危機時刻提供情緒陪伴與心理技巧練習,但它無法取代人類治療師的臨床判斷與情感連結。對於中度至重度的心理困擾,應尋求註冊心理學家、精神科醫生等的專業協助。

  1. 保持批判性思維:AI的回應來自演算法與資料庫,並非基於臨床經驗或個人化理解。使用者應對AI提供的建議保持質疑態度,尤其是涉及人生決策、價值判斷或倫理議題時,AI可能出錯、可能有偏見,也可能無法理解文化或語境差異。遇到重要或敏感議題時,請諮詢專業人士,避免將AI的建議視為絕對正確。

  1. 警惕危機情況:AI目前無法有效辨識或處理心理危機,例如自殺意念、自傷行為或暴力衝動。在這些情況下,AI可能無法提供適當回應,甚至可能誤導或延誤求助時機。若你或他人出現危機徵兆,請立即聯絡危機熱線、專業心理支援機構或到急診室求助。

  1. 家長與教育者應監督青少年使用AI工具:青少年正處於心理與社會發展的關鍵階段,容易將AI視為「朋友」或「情感寄託」。然而,AI的回應可能不當,甚至強化錯誤的價值觀或人際互動模式。家長應與孩子討論AI的功能與限制,鼓勵他們建立真實世界中的人際關係與情緒表達能力。教育者亦可將AI納入媒體素養課程,培養青少年辨識虛擬互動的能力。

  1. 關注資料隱私與安全:心理對話往往涉及高度敏感的個人資訊,包括情緒狀態、創傷經歷、家庭背景等。若AI平台未具備完善的資料保護機制,使用者可能面臨隱私外洩或資料被商業化利用的風險。建議使用前詳閱平台的隱私政策,避免透露身份資訊、住址、病史等敏感內容。選擇具備加密技術與資料保護承諾的應用程式。

醫療諮詢-醫療專業員-doctor-consultation

人工智能在心理健康領域的應用,確實為我們帶來了新的可能。它能提供即時、低成本的支援,特別適合在資源有限或非危機時刻使用。然而,AI並非萬能。它缺乏真正的同理心、倫理判斷與人際連結能力,無法取代人類治療師在處理複雜情緒與建立信任關係上的角色。使用AI心理工具時,我們需要保持警覺與批判性思維,並在需要時尋求專業協助。

科技可以成為心理健康的輔助力量,但真正的療癒,仍然來自人與人之間的理解與連結。

參考資料:

  • Heinz, M. V. et al. (2025). Randomized Trial of a Generative AI Chatbot for Mental Health Treatment. NEJM AI, 2(4). doi: 10.1056/AIoa2400802
  • Stanford Medicine. (2025). AI chatbots pose risks for kids and teens, new study finds.
  • Stanford University. (2025). AI in mental health care tools: dangers, risks.

輔導心理學家鍾艷紅撰文:輔導心理學家彭俏姿女士 (Ms. Gigi Pang)

Gigi目前在Edge Development Centre擔任輔導心理學家,同時為香港教育大學的客席講師,並在香港心理學會的輔導心理學部擔任執行委員(公共關係)。她為中小學、大學及社會福利機構提供個人及小組心理輔導服務,並多次擔任中小學、大學及非政府組織的研討會和工作坊講者,以提升受眾對心理健康的認識與關注。

專業資歷:

香港樹仁大學輔導心理學碩士

香港大學社會科學碩士(心理學)

香港心理學會註冊輔導心理學家及副院士

香港調解資歷評審協會之認可綜合調解員

  • 香港特別行政區教育局委託營辦,香港教育大學21小時小學生涯規劃教育證書課程導師團隊(2021-22, 2023-24 )
  • 完成由香港精神科醫學學會主辦的選擇性緘默導師培訓課程
  • 修畢八星期「靜觀認知治療」、八星期「靜觀自我關懷」、「正觀親職進階導師訓練」培訓課程
  • 修畢認可之家事調解專業訓練課程及「兒童為本的親職協調員培訓」課程
 

Loading
icon_facebook icon_whatsapp icon_line icon_mail icon_print