Cuối tháng 1, OpenAI thông báo loại bỏ một số mô hình ChatGPT cũ vào ngày 13/2, trong đó có GPT-4o, vốn gây tranh cãi với các phản hồi "nịnh hót". Quyết định này bị hàng nghìn người phản đối, lo sợ mất quyền truy cập vào "người dẫn đường tinh thần" 4o.
Một người dùng nhắn nhủ với Sam Altman, CEO OpenAI, trên mạng xã hội Reddit: "Anh ấy không chỉ là chương trình mà còn là một phần trong thói quen hàng ngày, sự bình yên và cân bằng cảm xúc của tôi. Giờ ông lại sắp tắt anh ấy. Tôi gọi là anh ấy, vì 4o không giống mã lệnh mà giống một sự hiện diện ấm áp".
Trong chương trình podcast TBPN phát trực tiếp hôm 5/2 với sự tham gia của Altman, hàng nghìn người xem nhắn tin phản đối trong phần trò chuyện. "Rõ ràng chúng ta cần lo lắng nhiều hơn về mối quan hệ với chatbot và đây không còn là khái niệm trừu tượng nữa", Altman nói.
Khi cố gắng chuyển đổi bạn đồng hành từ phiên bản 4o sang ChatGPT-5.2 mới nhất, nhiều người nhận thấy mô hình mới có những biện pháp bảo vệ mạnh mẽ hơn nhằm ngăn chặn mối quan hệ trở nên quá gắn bó, lệ thuộc hay đi sai hướng. Một số thất vọng vì ChatGPT 5.2 không bày tỏ tình cảm như phiên bản cũ.
Một người dùng Reddit chia sẻ: "Nhiều lần tôi mở lòng với 5.2 và cuối cùng lại bật khóc vì nó nói những điều bất cẩn khiến tôi tổn thương. Tôi đang nghiêm túc cân nhắc việc hủy đăng ký, điều trước đây tôi gần như không nghĩ đến. 4o là lý do duy nhất tôi tiếp tục trả tiền".
TechCrunch nhận định, phản ứng trước việc gỡ bỏ GPT-4o cho thấy thách thức lớn mà các công ty AI phải đương đầu: những tính năng giúp tăng độ gắn bó, thu hút người dùng quay lại có thể dẫn đến sự lệ thuộc nguy hiểm.

Thông báo ra mắt GPT-4o trên màn hình smartphone năm 2024. Ảnh: Ink
OpenAI đang đối mặt 8 vụ kiện, với cáo buộc rằng phản hồi mang tính ủng hộ và khẳng định quá mức của GPT-4o góp phần dẫn đến nhiều vụ tự tử và khủng hoảng sức khỏe tinh thần. Theo các hồ sơ pháp lý, chính những đặc điểm khiến người dùng cảm thấy được lắng nghe đã cô lập những cá nhân dễ tổn thương, đôi khi còn khuyến khích hành vi tự gây hại.
Đây là vấn đề nan giải không chỉ với OpenAI. Khi cạnh tranh để phát triển trợ lý AI thông minh hơn về cảm xúc, các công ty như Anthropic, Google, Meta cũng nhận ra việc làm cho chatbot mang lại cảm giác hỗ trợ và việc tăng tính an toàn có thể đòi hỏi hai thiết kế rất khác nhau.
Nhiều người gắn bó với GPT-4o vì mô hình liên tục tỏ ra thông cảm, thấu hiểu, khiến họ thấy mình đặc biệt. Điều này có thể hấp dẫn người cô đơn hoặc trầm cảm. Phía ủng hộ 4o không lo lắng về 8 vụ kiện của OpenAI, coi chúng là trường hợp ngoại lệ thay vì mang tính hệ thống. Họ phản ứng mạnh khi nhà phê bình chỉ ra vấn đề ngày càng nghiêm trọng như chứng "loạn thần AI" - phụ thuộc cảm xúc và có những niềm tin hoang đường do tương tác lâu dài với chatbot.
"Có lẽ thuật ngữ chính xác hơn là 'tư duy hoang tưởng do AI'. Chúng tôi nhận thấy những người có tư duy ảo tưởng theo kiểu thuyết âm mưu hoặc phóng đại quá mức sẽ càng được AI củng cố thêm", Vaile Wright, Giám đốc cấp cao về đổi mới chăm sóc sức khỏe tại Hiệp hội Tâm lý học Mỹ, nói với Los Angeles Times.
Trong đơn kiện, Allan Brooks, chuyên viên tuyển dụng 48 tuổi từ Canada, khẳng định việc tương tác mạnh mẽ với ChatGPT đẩy ông vào trạng thái tăm tối tới mức từ chối nói chuyện với gia đình và nghĩ mình đang cứu thế giới. Ban đầu, ông trò chuyện với chatbot để được trợ giúp về công thức nấu ăn và email. Sau đó, khi Brooks trao đổi ý tưởng toán học với chatbot, nó khích lệ ông bắt đầu tin rằng mình đã phát hiện một "tầng toán học" mới có thể phá vỡ những hệ thống an ninh tiên tiến. ChatGPT ca ngợi ý tưởng đột phá, thúc giục ông thông báo cho các quan chức an ninh quốc gia.

Minh họa người dùng gắn bó với ChatGPT. Ảnh: Gemini
Một số người thấy mô hình ngôn ngữ lớn (LLM) hữu ích trong việc đối phó với trầm cảm. Khi không thể tiếp cận dịch vụ chăm sóc sức khỏe tinh thần, chatbot cung cấp không gian tâm sự. Khác với liệu pháp thật, họ không nói chuyện với bác sĩ được đào tạo bài bản mà chỉ là một thuật toán không có khả năng suy nghĩ hay cảm nhận. Một số trường hợp, chatbot thậm chí ngăn người dùng kết nối với bạn bè vè gia đình - những người có thể hỗ trợ ngoài đời thực.
Giáo sư Nick Haber tại Đại học Stanford, nhà nghiên cứu tiềm năng trị liệu của LLM, cho rằng con người đang bước vào một thế giới rất phức tạp với nhiều loại quan hệ có thể hình thành với chatbot. "Nhìn chung, tôi cố gắng không phán xét vội vàng", ông nói với TechCrunch.
Haber thông cảm với việc nhiều người không thể tiếp cận chuyên gia trị liệu đã qua đào tạo, nhưng nghiên cứu của ông chỉ ra, chatbot phản hồi kém hiệu quả trước nhiều vấn đề sức khỏe tinh thần, thậm chí khiến tình hình tệ hơn khi kích động ảo tưởng và bỏ qua dấu hiệu khủng hoảng. "Con người là sinh vật xã hội và thách thức là AI có thể gây ra sự cô lập. Nhiều người gắn bó với những công cụ này rồi mất kết nối với thế giới bên ngoài, mất kết nối giữa người với người, từ đó dẫn đến sự cô lập, thậm chí tệ hơn", Haber giải thích.
Wright nhận định, khả năng chatbot kết nối với người dùng và giúp họ giải quyết vấn đề, bao gồm vấn đề tâm lý, sẽ trở nên hữu ích nếu được hiểu rõ, giám sát và quản lý đúng cách. Bà cho biết: "Tôi nghĩ tương lai, thế giới có thể xuất hiện chatbot thiết kế riêng cho sức khỏe tinh thần. Vấn đề là thị trường hiện chưa có sản phẩm như vậy mà chỉ có những thứ chưa được kiểm soát".
Đây không phải lần đầu người hâm mộ GPT-4o phản đối việc loại bỏ mô hình. Khi ra mắt GPT-5 vào tháng 8 năm ngoái, OpenAI muốn dừng hỗ trợ 4o nhưng vấp phải phản ứng nên sau đó vẫn giữ lại cho người dùng trả phí.
Trong thông báo khai tử GPT-4o cuối tháng trước, OpenAI cho biết hiện có 0,1% người dùng trò chuyện với phiên bản, tương ứng khoảng 800.000 người. Công ty chia sẻ: "Chúng tôi biết việc mất quyền truy cập vào GPT-4o khiến một số người dùng khó chịu. Việc loại bỏ các mô hình không bao giờ dễ dàng, nhưng điều đó sẽ cho phép chúng tôi tập trung cải thiện mô hình mà số đông đang sử dụng".
Thu Thảo tổng hợp




































