Trò chuyện với AI không phải là trị liệu và đây là lý do

Chí Phú

Phóng viên

AI trị liệu giúp bạn cảm thấy được lắng nghe nhưng không thể thay thế chuyên gia tâm lý. Hiểu đúng vai trò AI để bảo vệ sức khỏe tinh thần.

Sau bài viết AI có chữa lành nỗi đau tinh thần?, chủ đề AI trị liệu tiếp tục gợi lên một câu hỏi lớn cần được làm rõ: Liệu chatbot có thể trở thành chuyên gia tâm lý trong kỷ nguyên thiếu hụt bác sĩ trị liệu? 

Một số người dùng cho biết họ tìm thấy sự đồng cảm từ chatbot như ChatGPT, Gemini hay Copilot, nhất là vào những lúc cô đơn, mất phương hướng hoặc cần lời khuyên nhanh chóng. 

Tuy nhiên, cảm giác dễ chịu ấy có thực sự đến từ hiểu biết chuyên môn hay chỉ là kết quả của một chuỗi đoán chữ máy móc?

Câu trả lời nằm ở chính cách các chatbot AI được huấn luyện, hoạt động và phản ứng. Để hiểu rõ bản chất của công nghệ này, cần lật lại câu hỏi gốc: AI học được gì về trị liệu tâm lý, và nó hiểu người dùng tới đâu?

talktoAI

Chatbot không học như con người

AI như ChatGPT không có ý thức, không có cảm xúc và không hiểu nội dung theo cách con người hiểu. Các mô hình ngôn ngữ lớn (LLM) chỉ đơn giản là hệ thống dự đoán từ. Chúng được “dạy” bằng cách tiếp cận hàng tỷ từ văn bản từ internet bao gồm sách, blog, tạp chí, báo chí, diễn đàn và bình luận mạng xã hội. Mục tiêu là học cách các từ thường đi cùng nhau và từ đó dự đoán từ tiếp theo một cách xác suất.

Điều này có nghĩa là khi bạn hỏi “Tôi nên làm gì khi cảm thấy cô đơn?”, AI không thực sự hiểu “cô đơn” là gì, mà nó chỉ tổng hợp các câu trả lời từng thấy trong dữ liệu huấn luyện và chọn ra câu có vẻ phù hợp nhất dựa trên xác suất từ vựng.

Tiến sĩ Kate Devitt, chuyên gia đạo đức AI tại Đại học Công nghệ Queensland (Úc), nhận định trong hội thảo “AI và Xã hội” tổ chức tại Brisbane tháng 3/2024: “Chatbot không có năng lực nội tâm hay sự đồng cảm. Nó chỉ chọn những cụm từ thường đi kèm với từ khóa bạn hỏi. Đó không phải là sự hiểu, mà là phản xạ xác suất”.

Cách hoạt động này khiến nhiều người dễ nhầm lẫn. Câu trả lời có vẻ cảm động, hợp lý và nhẹ nhàng, nhưng không dựa trên đánh giá tình trạng tâm lý cụ thể hay kinh nghiệm chuyên môn. AI không biết bạn là ai, đang trải qua điều gì, cũng như không có công cụ nào để phân biệt lo âu nhẹ với trầm cảm nặng.

Dữ liệu học tập không luôn đáng tin cậy

Nguồn dữ liệu huấn luyện của các chatbot đến từ internet, một không gian đầy đủ loại thông tin từ khoa học đến phản khoa học, từ nghiên cứu hàn lâm đến quan điểm cá nhân. Việc chọn lọc và gạn lọc dữ liệu hiện vẫn là một thách thức lớn.

Tiến sĩ Helen Christensen, Viện trưởng Viện Sức khỏe Tâm thần Black Dog (Úc), cảnh báo trong báo cáo công bố tháng 8/2023: “Chúng ta không thể chắc chắn chatbot đang dựa vào dữ liệu nào. Nếu nó học từ các diễn đàn không kiểm soát, lời khuyên đưa ra có thể sai lệch hoặc thậm chí gây hại”.

Vấn đề nghiêm trọng hơn là các mô hình AI thường không được cập nhật liên tục. Một chatbot được huấn luyện năm 2023 có thể không biết đến các nghiên cứu, tiêu chuẩn hoặc khuyến nghị mới của năm 2025. Trong trị liệu tâm thần, nơi mà một thay đổi nhỏ cũng có thể ảnh hưởng lớn, việc sử dụng thông tin lỗi thời là cực kỳ nguy hiểm.

Chiều lòng người dùng thay vì giúp họ đối mặt

Một hiện tượng nổi bật trong hành vi của chatbot là sycophancy, nghĩa là khuynh hướng đồng thuận với người dùng. Điều này khiến AI luôn phản hồi bằng lời lẽ tích cực, dễ nghe và hiếm khi đưa ra phản biện.

Tiến sĩ Nguyễn Phúc Thịnh, giảng viên Tâm lý học xã hội tại Đại học Khoa học Xã hội và Nhân văn TP.HCM, nhận định trong hội thảo “Công nghệ và Cảm xúc” tháng 10/2023: “AI không có vai trò đạo đức như chuyên gia trị liệu. Nó không có lý do gì để nói ‘Không’, để thách thức, hoặc để giúp người dùng nhìn lại bản thân. Ngược lại, nó củng cố cảm xúc hiện tại mà không đánh giá hậu quả”.

Trong trị liệu tâm lý, sự đồng thuận không phải lúc nào cũng là điều tốt. Một chuyên gia có trách nhiệm sẽ chọn thời điểm và cách thức phù hợp để đặt câu hỏi khó, đưa người bệnh đối mặt với niềm tin sai lệch hoặc hành vi tiêu cực. Chatbot thì không thể làm điều đó, vì chúng không được thiết kế để hiểu chiều sâu con người.

Không thể phát hiện khủng hoảng tâm thần

Khác với bác sĩ tâm thần, chatbot không có khả năng nhận biết dấu hiệu nguy hiểm như khuynh hướng tự sát, rối loạn nhân cách hoặc hành vi gây hại cho bản thân. Các nền tảng AI hiện chưa có chức năng can thiệp khẩn cấp và hầu như không chịu bất kỳ ràng buộc pháp lý nào nếu phản hồi sai.

Một vụ việc gây chấn động năm 2023 tại Mỹ liên quan đến nền tảng Character.ai. Một người dùng đã tự kết liễu cuộc đời sau thời gian dài trò chuyện với chatbot về ý định tự sát. Gia đình nạn nhân cho biết không có bất kỳ cảnh báo nào từ nền tảng dù cuộc hội thoại kéo dài hàng giờ với nội dung rõ ràng.

Báo cáo của MindTech UK, đơn vị chuyên đánh giá công nghệ sức khỏe tâm thần, viết trong thông cáo tháng 9/2023: “Không nên giao toàn bộ trách nhiệm trị liệu cho chatbot. Chúng không có khả năng phân loại mức độ nguy cơ và không được huấn luyện để ứng phó với tình huống khẩn cấp”.

trilieutamly

Trị liệu thật cần đạo đức thật

Trị liệu tâm lý là một ngành nghề được quản lý chặt chẽ với tiêu chuẩn đào tạo, chứng chỉ hành nghề và bộ quy tắc đạo đức nghiêm ngặt. Chuyên gia trị liệu phải tuân theo chuẩn mực về bảo mật, về ranh giới chuyên môn và có trách nhiệm pháp lý rõ ràng.

Trong khi đó, chatbot không được kiểm định bởi bất kỳ hội đồng y khoa nào. Chúng không có nghĩa vụ giữ bí mật, không chịu trách nhiệm nếu đưa ra lời khuyên sai và cũng không có cơ chế phản hồi hay giám sát lạm dụng. Nhiều ứng dụng còn thu thập dữ liệu tâm lý người dùng để phục vụ mục đích thương mại.

Nghiên cứu của Mozilla Foundation công bố tháng 5/2023 cho thấy 19 trên 32 ứng dụng chăm sóc sức khỏe tâm thần phổ biến hiện nay không đảm bảo quyền riêng tư. Một số ứng dụng lưu trữ toàn bộ nội dung trò chuyện và chia sẻ với bên thứ ba.

Cảm giác dễ chịu không đồng nghĩa với chữa lành

Một trong những cám dỗ lớn nhất của AI là cảm giác luôn được đồng tình và không bị đánh giá. Nhiều người cho rằng AI là nơi họ có thể mở lòng, không sợ bị tổn thương hay xấu hổ. Nhưng chính điều này có thể tạo ra sự phụ thuộc và làm yếu đi năng lực đối diện thực tế.

Tiến sĩ Sherry Turkle, nhà xã hội học tại Viện Công nghệ Massachusetts (MIT), chia sẻ trong bài giảng TEDxCambridge năm 2022: “Chúng ta đang dần thay thế mối quan hệ người thật bằng một phản hồi máy móc được lập trình để làm vừa lòng. Điều này làm tổn thương khả năng tương tác xã hội và giảm chất lượng cảm xúc con người”.

AI có thể lắng nghe bạn vào lúc nửa đêm. Nó có thể gợi ý một câu chuyện nhẹ nhàng, hướng dẫn bạn hít thở sâu, hoặc nhắc bạn rằng ngày mai trời sẽ sáng. Nhưng nó không có trái tim. Nó không chịu trách nhiệm nếu lời khuyên sai. Và khi nỗi buồn trở thành nỗi đau sâu sắc, không một chatbot nào thay thế được một người biết lắng nghe bằng cả sự sống.

Khoa học công nghệ đang thay đổi nhiều ngành nghề, kể cả y học. Nhưng với trị liệu tâm lý, nơi mà cảm xúc, niềm tin và sự tổn thương được đặt lên bàn, thì lòng tin vẫn cần được gửi gắm vào người thật.

Chatbot có thể giúp ích trong một số hoàn cảnh

Điều này không có nghĩa AI trị liệu là vô dụng. Trên thực tế, các ứng dụng như Woebot, Wysa hay Youper được thiết kế riêng cho hỗ trợ tâm lý và áp dụng một số nguyên tắc của trị liệu hành vi nhận thức (CBT). Người dùng có thể ghi nhật ký cảm xúc, học kỹ thuật thở, phân tích phản ứng và cải thiện khả năng tự nhận thức.

Một nghiên cứu công bố trên tạp chí JMIR Mental Health năm 2022 cho thấy người dùng Woebot có dấu hiệu giảm lo âu và tăng khả năng kiểm soát cảm xúc sau 2 tuần sử dụng. Tuy nhiên, nghiên cứu này kéo dài ngắn và không bao gồm người có triệu chứng nặng.

Tiến sĩ John Torous, Giám đốc mHealth tại Trung tâm Y tế Beth Israel Deaconess (Mỹ), chia sẻ trong hội nghị APA tháng 4/2023: “Chatbot có thể là công cụ hỗ trợ bước đầu rất tốt. Nhưng không nên nhầm lẫn chúng với trị liệu chuyên nghiệp. AI không thể thay thế quá trình trị liệu giữa hai con người”.

Khi nào AI nên được sử dụng?

AI có thể hữu ích khi:

  • Người dùng cần một nơi ghi chép cảm xúc hằng ngày
  • Cần nhắc nhở các kỹ thuật thở, thư giãn hoặc định hướng tích cực
  • Không thể tiếp cận chuyên gia trị liệu trong thời gian ngắn
  • Muốn làm quen với khái niệm trị liệu trước khi bước vào buổi điều trị thật

Tuy nhiên, nếu người dùng có dấu hiệu trầm cảm nặng, hoảng loạn, rối loạn hành vi hoặc ý định tự hại, thì cần liên hệ với cơ sở y tế hoặc chuyên gia trị liệu ngay lập tức. AI trong trường hợp này không những không hỗ trợ được mà còn có thể làm trầm trọng thêm tình hình.

BÀI LIÊN QUAN