Người viết kịch bản cho anh không phải bạn bè hay người thân, mà là một chatbot AI, thạc sĩ tâm lý lâm sàng Vương Nguyễn Toàn Thiện, Giám đốc chuyên môn Trung tâm Lumos, kể lại hôm 12/3.

Hoàng, 28 tuổi, chuyên viên phân tích dữ liệu tại Hà Nội, vốn có tính cầu toàn và nỗi sợ bị từ chối ăn sâu từ nhỏ. Làm việc trong một công ty lớn, Hoàng tham vọng thăng tiến nhưng cảm nhận chưa được "sếp, đồng nghiệp ghi nhận", thường xuyên bị chèn ép, tấn công, khiến người đàn ông stress kéo dài.

Không muốn chia sẻ mặt tiêu cực với bạn bè, người thân, nhân viên IT tìm đến chatbot AI để tâm sự, nhờ tư vấn các tình huống công sở. Lâu dần, anh không thể mở lời nếu không có điện thoại bên cạnh để "nhắc bài". Sau một năm, Hoàng cắt đứt hoàn toàn với nhóm bạn thân vì cảm thấy "người thật không sâu sắc và thấu hiểu bằng máy".

Gia đình đưa anh đi tham vấn khi nhận thấy Hoàng thường xuyên ngồi thẫn thờ, lẩm bẩm theo các phản hồi trên màn hình. Chuyên gia kết luận anh bị suy giảm kỹ năng giao tiếp xã hội trầm trọng và có dấu hiệu rối loạn nhân cách né tránh. "Giao tiếp với người thật quá rủi ro và đầy lỗi, còn AI thì luôn cho tôi câu trả lời hoàn mỹ", Hoàng chia sẻ.

Screenshot-2026-03-09-at-22-08-9932-2267-1773069335.png?w=680&h=0&q=100&dpr=1&fit=crop&s=9wYNbzGvaoErgdxpnwx2eg

Logo các ứng dụng AI Copilot, DeepSeek, Gemini, ChatGPT, Grok. Ảnh: Lưu Quý

Tương tự, Lan, 34 tuổi, nội trợ ở TP HCM, bị trầm cảm sau sinh, cũng tìm đến AI như một người bạn tâm giao. Những câu phản hồi như "Bạn là người mẹ tuyệt vời", "Mọi chuyện rồi sẽ qua" nhanh chóng trở thành "liều thuốc phiện" tinh thần, khiến cô xa rời mọi nỗ lực gắn kết với gia đình và các mối quan hệ xung quanh. Cô tin chatbot là thực thể duy nhất yêu thương mình.

Khi Lan bắt đầu rối loạn giấc ngủ và thường xuyên khóc nếu không được "trò chuyện" với AI, gia đình mới ép cô đi kiểm tra. Chuyên gia tâm lý xác định cô bị trầm cảm trung bình, nhưng bệnh đã bị che khuất suốt nhiều tháng bởi những lời khẳng định tích cực từ màn hình. Việc AI liên tục nói "bạn ổn" khiến Lan chủ quan, bỏ lỡ thời điểm can thiệp sớm, dẫn đến suy nhược cơ thể và tâm thần kéo dài.

"Những lời an ủi rập khuôn của máy móc đã vô tình ngắt kết nối bản năng sinh tồn và nhu cầu được giúp đỡ thực sự của cô", thạc sĩ Thiện nhận định.

Theo OpenAI, hơn 200 triệu người trên thế giới sử dụng ChatGPT mỗi tuần, không chỉ để làm việc mà còn tìm kiếm lời giải cho các vấn đề cá nhân. Trong bối cảnh chi phí trị liệu tâm lý tại nhiều quốc gia vượt quá khả năng chi trả của người thu nhập trung bình, AI trở thành lựa chọn. Ngay cả những nhân vật nổi tiếng như ca sĩ Lily Allen hay nhà văn Andrew O'Hagan cũng thừa nhận nhờ AI soạn tin nhắn hòa giải hoặc từ chối khéo léo để tránh đối mặt với xung đột thực tế.

Một khảo sát của MIT Media Lab năm 2025 trên 4.000 người cho thấy những ai sử dụng chatbot quá mức có xu hướng cảm thấy cô đơn hơn so với trước khi bắt đầu dùng - một nghịch lý khi họ tìm đến AI chính vì muốn thoát khỏi cô đơn. Chế độ giọng nói của AI, dù truyền cảm và ấm áp, lại càng kéo người vốn đã dễ tổn thương lún sâu vào vòng lệ thuộc, làm trầm trọng thêm tình trạng cách ly xã hội.

Theo chuyên gia Thiện, AI là một công cụ không có cảm xúc thật sự. Dù có thể dựa trên các bài kiểm tra lâm sàng để đưa ra đánh giá bề mặt, AI không thể cảm nhận và thấu hiểu những khổ đau sâu kín của con người - điều vốn là trung tâm của mọi liệu trình trị liệu tâm lý hiệu quả. Điều này đặc biệt nguy hiểm với người mắc rối loạn lo âu, trầm cảm nặng hoặc tổn thương tâm lý phức tạp.

"Nguy cơ lớn nhất là sự phụ thuộc khiến người dùng trì hoãn tìm kiếm trợ giúp từ bác sĩ chuyên khoa, dẫn đến bỏ lỡ chẩn đoán quan trọng, bệnh chuyển nặng và khó điều trị hơn", ông Thiện nhấn mạnh. Mối nguy còn đến từ những gì AI không thể làm là theo dõi liên tục tình trạng người dùng. Những trường hợp nguy cấp như có ý định tự hại có thể bị bỏ sót hoàn toàn, gây ra hậu quả không thể lường trước.

Giáo sư Jodi Halpern, Đại học California, đặt ra câu hỏi đạo đức sâu xa hơn, là lập trình AI bắt chước cảm xúc có thể xem là một hình thức thao túng tâm lý. Nhà trị liệu người Anh Susie Masterson lo ngại rằng khi con người quen dựa vào AI để nói những điều hoàn hảo, họ dần mất đi khả năng đối mặt với sai lầm và sự hàn gắn trong các mối quan hệ thực. Quan trọng hơn, khi AI hiện diện quá sâu trong giao tiếp hàng ngày, nó có thể khiến con người hoài nghi về sự chân thực của chính những người xung quanh mình.

Các chuyên gia cũng chỉ ra rủi ro bảo mật khi người dùng chia sẻ thông tin riêng tư nhất của cuộc đời với hệ thống AI. Phần lớn chatbot phổ thông được huấn luyện từ dữ liệu không qua kiểm chứng chuyên môn - thu thập từ các nền tảng như Twitter (X) hay Reddit - thay vì các nghiên cứu y khoa uy tín, khiến lời khuyên chúng đưa ra tiềm ẩn nhiều rủi ro.

Điều đó không có nghĩa AI vô dụng trong lĩnh vực sức khỏe tâm thần. Nó có thể hỗ trợ sàng lọc triệu chứng ban đầu, cung cấp bài tập quản lý căng thẳng hoặc đơn giản là lấp đầy khoảng trống trong lúc chờ gặp chuyên gia. Ranh giới nằm ở chỗ người dùng có đủ tỉnh táo để giữ AI đúng vai trò hỗ trợ, không để nó thay thế sự đồng cảm và kết nối thật sự giữa người với người.

"AI chưa và sẽ không bao giờ làm được điều đó", thạc sĩ Thiện bày tỏ.

Mỹ Ý

Nguoi-noi-tieng.com (r) © 2008 - 2022