AI 心理工具的倫理邊界|使用 AI 做情緒覺察要注意什麼|馥靈之鑰
AI × 心理學 × 倫理

AI 心理工具的倫理邊界
使用 AI 做情緒覺察
要注意什麼

王逸君 · 2026.04.27 · 學術研究中心

核心觀點 01
AI 是情緒覺察的鏡子,不是診斷工具
核心觀點 02
幻覺(hallucination)是已知風險,設計責任在平台
核心觀點 03
情緒資料有更高保護等級,使用前要確認隱私政策

AI 做心理測驗、AI 解讀情緒、AI 幫你看命盤,這些工具愈來愈多。有人說準,有人說亂說,有人根本不知道自己在用什麼。

這篇不是要你相信或不相信 AI,是要說清楚一件事:這類工具的邊界在哪,能用它做什麼,又有哪些事它永遠做不到。

AI 情緒工具能做什麼,不能做什麼

先說能做的。AI 可以根據你輸入的資訊(測驗作答、命理數據、提問內容),生成結構化的反思框架,幫你把模糊的感受整理成可以觀察的角度。本質上是一面鏡子,有沒有用,取決於你願不願意真的看進去。

有三件事,AI 做不到:

臨床診斷。憂鬱症、焦慮症、創傷後壓力症候群,需要有執照的精神科醫師或臨床心理師評估,AI 說的不算。
保證準確性。大型語言模型有「幻覺」問題,它會生成聽起來合理但實際上不正確的內容。在情緒解讀領域,這尤其需要警覺。
危機介入。如果你或身邊的人有傷害意念,AI 工具無法真正介入。只有真人可以。

APA 倫理準則(2017)明確指出:心理評估須由有執照的專業人員使用,未經驗證的工具不得聲稱具有診斷功能。AI 情緒工具應在介面上清楚標示「輔助覺察」而非「心理診斷」。

幻覺問題在情緒 AI 上有多嚴重

幻覺(hallucination)是 AI 語言模型的已知缺陷:它會以高度自信的語氣說出不正確的事情。在一般知識問答,這只是困擾;在情緒覺察場景,它可能造成更深的誤導。

具體來說,AI 可能:

負責任的平台設計,應該主動限制 AI 回應的範疇。引導性問題比診斷性結論安全,開放式反思比確定性標籤好。這是設計責任,不能全靠使用者自己判斷。

知情同意:你有沒有被告知這些

知情同意(informed consent)是心理學研究和服務的基本倫理要求。在 AI 工具同樣適用。你使用一個情緒工具前,平台有義務清楚告訴你:

如果這些告知埋在十七頁條款的第九頁,那不是知情同意,那是規避責任。

危機辨識:這條線不能省

任何接觸大量使用者情緒的工具,都有責任建立危機偵測機制。這不是技術難題,是設計選擇。基本做法:偵測高風險語句(傷害意念、絕望感、自棄表達),在介面上顯著呈現求助資源,不繼續往覺察解讀的方向走,直接提供轉介資訊。

數據保護:情緒資料不是一般資料

你填測驗的作答、你輸入的心情描述,屬於「特別敏感的個人資料」。在 GDPR(歐盟一般資料保護規則)和台灣個人資料保護法,都有更高等級的保護要求。

使用平台前,應確認:

學術誠信:測驗來源要說清楚

這個問題比較少人討論:一個平台的心理測驗,到底是參照國際標準量表設計的,還是原創工具?

兩者都可以,但必須說清楚。PHQ-9(憂鬱量表)、GAD-7(焦慮量表)、Big Five 人格測驗有廣泛學術驗證;而原創工具是基於某種理論框架設計的覺察引導,不能拿來對比臨床數據。混淆兩者是學術不誠實。

馥靈之鑰的學術透明度說明
  • 50 項心理量表引用、AI 方法論說明、危機 SOP → 學術研究中心
  • 103 項工具中 35 項參照標準量表、68 項為原創覺察工具 → research.html R-1B 段落
  • 隱私權政策完整版(含第三方處理商清單 + GDPR 雙軌)→ privacy.html

AI 是鏡子,不是嚮導。你才是那個握鑰匙的人。
工具說的只是一個角度,你看進去多深,才決定它有沒有用。

馥靈馥語 · 王逸君

常見問題

AI 心理測驗準確嗎?有學術依據嗎?
要看工具的設計來源。有些心理測驗參照國際標準量表(如 PHQ-9 憂鬱量表、Big Five 人格測驗),有學術基礎;有些是平台原創工具,屬於覺察引導而非診斷工具。使用前應確認工具說明,分清楚「自我探索」與「臨床評估」的差異。臨床診斷只能由有執照的心理師或醫師進行。
AI 情緒解讀會有幻覺問題嗎?
會。大型語言模型(LLM)有產生「聽起來合理但實際上錯誤」內容的風險。在情緒覺察工具上,可能提供過度解讀或臆測性結論。優良設計應限定 AI 回應範疇、明確標示「非醫療建議」。
AI 心理工具可以取代心理諮商嗎?
不能。AI 工具的定位是「情緒覺察輔助」,不是「心理治療」。APA 倫理準則要求心理評估須由有執照的專業人員操作。遇到情緒危機請直接聯繫安心專線 1925。
使用 AI 心理工具,個人資料安全嗎?
取決於平台的資料保護設計。確認:①輸入內容是否明文儲存;②是否用於模型訓練;③是否符合台灣個人資料保護法。優良平台提供清楚的隱私政策並允許使用者要求刪除資料。
如何判斷一個 AI 心理工具是否負責任?
觀察重點:①清楚說明是 AI 輔助;②有危機偵測機制;③隱私政策透明;④學術引用誠實,區分標準量表和原創工具;⑤不誇大效果,不超越工具能力範圍。
什麼是 AI 情緒工具的知情同意?
使用前應清楚了解:①這是 AI 輔助內容,不是專業診斷;②資料如何被儲存和使用;③工具的限制;④遇到緊急情況如何求助。負責任的平台會在介面上顯著標示,而不是埋在長篇條款裡。

想了解馥靈之鑰如何落實 AI 情緒工具的倫理設計

查看學術研究中心
參考資料(9 筆)
  1. American Psychological Association(2017),《APA Ethical Principles of Psychologists and Code of Conduct》
  2. American Counseling Association(2014),《ACA Code of Ethics》,Section A.12 Technology Applications
  3. Bender et al.(2021),〈On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?〉,FAccT 2021
  4. Fulmer et al.(2018),〈Using Psychological Artificial Intelligence〉,JMIR Mental Health
  5. European Parliament(2018),《General Data Protection Regulation (GDPR)》,Article 9 特殊類別資料
  6. 台灣《個人資料保護法》(2023 修正版),第六條特種個人資料規定
  7. WHO(2022),《World Mental Health Report: Transforming Mental Health for All》,數位心理工具章節
  8. Kroenke, Spitzer & Williams(2001),〈The PHQ-9: Validity of a Brief Depression Severity Measure〉,JGIM
  9. Costa & McCrae(1992),NEO-PI-R:Big Five 人格測驗標準化方法論基礎