Mai, 25 tuổi, ở TP HCM, có dấu hiệu căng thẳng, lo âu kéo dài từ sau khi mất việc nhưng thay vì tìm gặp chuyên gia tâm lý, cô sử dụng ChatGPT để trò chuyện, chia sẻ nỗi buồn. Ban đầu, Mai cảm thấy dễ chịu vì AI luôn lắng nghe và đưa ra những câu trả lời khuôn mẫu như "Bạn không đơn độc" hay "Hãy thử tập thể dục", "Tình trạng không nghiêm trọng, bạn sẽ ổn thôi" khiến Mai tin rằng bản thân không có bệnh.

Tuy nhiên, sau 6 tháng, triệu chứng của Mai trở nặng: mất ngủ, suy nghĩ tiêu cực, thậm chí có ý định tự hại bản thân. Khi gia đình phát hiện và đưa đi khám, bác sĩ chẩn đoán cô bị rối loạn lo âu, có dấu hiệu trầm cảm, cần can thiệp bằng thuốc và trị liệu tâm lý.

Trường hợp khác, người đàn ông 38 tuổi, ở Hà Nội, bị rối loạn cương dương, được bác sĩ Bệnh viện Nam học và hiếm muộn Việt - Bỉ kê thuốc, song hỏi ChatGPT thấy ghi thuốc gây biến chứng giác mạc nên không dùng. Khi anh quay lại bệnh viện, tình trạng đã ở mức độ nghiêm trọng, cần điều trị lâu dài và tốn kém hơn nhiều so với ban đầu.

Screenshot-2025-11-24-at-06-27-6406-5147-1763940822.png?w=680&h=0&q=100&dpr=1&fit=crop&s=At9HkbPbh0i_pZdrJ31ecg

Giao diện hỏi đáp của ChatGPT trên ứng dụng cho Android. Ảnh: Bảo Lâm

Bệnh viện Gia An 115 (TP HCM) từng tiếp nhận nữ bệnh nhân 42 tuổi, mắc đái tháo đường, tự ý bỏ thuốc theo "AI y tế", vài tuần sau đường huyết tăng vọt, suýt hôn mê. Một bệnh nhân 38 tuổi khác, bị rối loạn lipid máu, cũng dừng thuốc statin, chuyển sang thảo dược theo tư vấn của AI, hậu quả là bị hẹp động mạch vành.

Sự bùng nổ của các ứng dụng AI tạo sinh (GenAI) đang định hình lại thói quen chăm sóc sức khỏe toàn cầu. Theo OpenAI, hơn 200 triệu người sử dụng ChatGPT mỗi tuần. Tại Việt Nam, báo cáo của Sensor Tower cho thấy chỉ trong nửa đầu năm 2025, người dùng đã dành tới 283 triệu giờ với 7,5 tỷ phiên truy cập vào các ứng dụng này. Tuy nhiên, sự phụ thuộc vào "bác sĩ ảo" đang tạo ra một cuộc khủng hoảng ngầm trong y tế.

Cốt lõi của vấn đề nằm ở sự ngộ nhận về độ chính xác. Một nghiên cứu đăng trên tạp chí khoa học PLOS ONEchỉ ra rằng độ chính xác trong chẩn đoán y khoa của ChatGPT chỉ đạt 49% - một tỷ lệ rủi ro quá lớn đối với tính mạng con người. Tiến sĩ Artie Shen từ Đại học New York giải thích, AI chỉ tổng hợp thông tin dựa trên xác suất từ ngữ mà không có nền tảng lý luận thực tiễn, khiến người dùng nhận được chẩn đoán nhưng không hiểu bản chất vấn đề.

Bác sĩ Trương Hữu Khanh, Phó chủ tịch Liên chi hội Truyền nhiễm TP HCM, đánh giá ChatGPT là sản phẩm thông minh, hữu ích, có thể hỗ trợ y bác sĩ trong tìm kiếm thông tin thường thức đơn giản như một nguồn tham khảo, nhưng không thể thay thế thầy thuốc trong khám, điều trị.

Ví dụ, bệnh nhân có dấu hiệu sốt, ho, nôn, hay vàng da phải được bác sĩ thăm khám, chẩn đoán chứ ChatGPT không thể tự khám và đưa ra kết luận. Chưa kể, nhiều bệnh có triệu chứng khác nhau, chuyển biến nhanh từ dấu hiệu đơn giản mà chỉ bác sĩ mới phát hiện và xử trí kịp thời bằng sự nhạy cảm lâm sàng và kiến thức chuyên môn. "Hai bác sĩ khám cho một bệnh nhân còn có thể đưa ra kết luận khác biệt, có thời gian thì khám kỹ và ra nhiều triệu chứng hơn, điều trị trúng đích hơn", ông Khanh nói.

Ngoài ra, một trong những yếu tố cốt lõi của y khoa mà AI không thể thay thế là sự đồng cảm. Bác sĩ Khanh lấy ví dụ bệnh nhân ung thư giai đoạn cuối cần sự chăm sóc giảm nhẹ và đồng hành tâm lý. Trong tình huống như vậy, sự thấu hiểu và lòng nhân ái của người thầy thuốc đóng vai trò vô cùng quan trọng, giúp bệnh nhân có được những ngày cuối đời bình yên. Đây là điều mà một cỗ máy vô tri không bao giờ làm được.

Đồng quan điểm, thạc sĩ tâm lý lâm sàng Vương Nguyễn Toàn Thiện, Giám đốc chuyên môn Trung tâm Lumos cho rằng AI dù thông minh nhưng không có cảm xúc thật sự. Dựa trên dữ liệu lập trình, AI chỉ phản hồi ở mức cơ bản, phù hợp với các kịch bản định sẵn, nhưng không thể mô phỏng mối quan hệ liên cá nhân.

Chuyên gia cũng chỉ ra rằng, AI có thể dựa trên các bài kiểm tra lâm sàng để đưa đánh giá, nhưng không thể cảm nhận và thấu hiểu những khổ đau sâu kín của người dùng. Điều này đặc biệt nguy hiểm với những người mắc rối loạn lo âu, trầm cảm nặng hoặc trải qua tổn thương tâm lý, vì AI không đủ khả năng xử lý vấn đề phức tạp.

Một nguy cơ lớn khác là sự phụ thuộc ngày càng tăng vào AI. Người dùng có thể trì hoãn việc tìm kiếm trợ giúp từ bác sĩ hoặc chuyên gia. Điều này dẫn đến những rủi ro như bỏ lỡ chẩn đoán quan trọng, khiến bệnh tình chuyển nặng, và trong nhiều trường hợp, khó điều trị hơn.

Các bác sĩ khuyến cáo người bệnh chỉ nên coi AI là công cụ hỗ trợ tra cứu thông tin thường thức hoặc sắp xếp hồ sơ, tuyệt đối không dùng để tự kê đơn hay tự ý ngưng phác đồ điều trị. Khi có dấu hiệu bất thường, hãy đến cơ sở y tế chuyên khoa, bởi sự tiện lợi của công nghệ không bao giờ đáng giá bằng sự an toàn của tính mạng.

"Y học là khoa học của sự cá thể hóa và lòng trắc ẩn, nơi trách nhiệm y đức của bác sĩ đóng vai trò quyết định mà máy móc không thể sao chép", chuyên gia nói.

Mỹ Ý

Nguoi-noi-tieng.com (r) © 2008 - 2022