file-20250521-56-gqvzpu-174799-7929-4399-1747997617.jpg?w=680&h=0&q=100&dpr=1&fit=crop&s=kec-TMrqRgn-gAU7W8KTlw

Sự xuất hiện của ChatGPT năm 2022 tạo nên làn sóng chatbot AI giao tiếp giống người. Ảnh: Wu Hao/EPA

AI có khả năng giao tiếp và thuyết phục xuất sắc

Theo nghiên cứu công bố trên tạp chí Proceedings of the National Academy of Sciences năm ngoái, thế hệ chatbot trang bị mô hình ngôn ngữ lớn (LLM) mới nhất có khả năng giao tiếp tương đương, thậm chí tốt hơn đa số con người. Ngày càng nhiều nghiên cứu cũng cho thấy, các hệ thống hiện nay có thể vượt qua bài kiểm tra Turing (bài kiểm tra trí thông minh giống người cho máy móc), khiến mọi người tin rằng họ đang tương tác với một người khác.

Thế giới đã không lường trước được sự xuất hiện của những hệ thống giao tiếp siêu việt. Các tác phẩm khoa học viễn tưởng trước đây truyền tải thông điệp rằng AI sẽ rất lý trí, biết mọi thứ và thiếu tính người.

Tuy nhiên, nhiều thí nghiệm gần đây chỉ ra, các mô hình như GPT-4 vượt trội hơn con người trong việc viết ra lời lẽ mang tính thuyết phục và đồng cảm. Một nghiên cứu xuất bản trên tạp chí Springer Nature năm 2024 chỉ ra, LLM rất giỏi đánh giá sắc thái cảm xúc trong tin nhắn do con người viết.

Một nghiên cứu khác trên tạp chí Nature Human Behaviour hôm 19/5 cho thấy, chatbot có sức thuyết phục cao hơn con người trong các cuộc tranh luận trực tuyến, đặc biệt là khi chúng có thể cá nhân hóa lập luận của mình dựa vào thông tin về đối thủ. Công trình này, do chuyên gia Francesco Salvi từ Viện Công nghệ Liên bang Thụy Sĩ tại Lausanne cùng đồng nghiệp thực hiện, nêu bật khả năng LLM tác động đến ý kiến của mọi người, ví dụ như trong các chiến dịch chính trị hoặc quảng cáo.

LLM cũng là "bậc thầy" về nhập vai, có thể đảm nhận nhiều dạng tính cách khác nhau và bắt chước phong cách ngôn ngữ nhân vật. Điều này được tăng cường nhờ khả năng suy luận niềm tin và ý định của con người từ văn bản. Dĩ nhiên, LLM không thực sự đồng cảm hay thấu hiểu, chúng chỉ là những cỗ máy bắt chước cực kỳ hiệu quả.

Chatbot-nguoi-1747996688-5135-1747997617.jpg?w=680&h=0&q=100&dpr=1&fit=crop&s=Mi5wR-b0rqE6y6qHBi__kQ

Hàng triệu người tương tác với các ứng dụng bạn đồng hành AI hàng ngày. Ảnh: Medium

Dựa dẫm vào AI có thể gây hậu quả lớn

LLM mang đến nhiều ích lợi như giúp thông tin phức tạp trở nên dễ tiếp cận hơn thông qua giao diện trò chuyện, điều chỉnh thông điệp theo mức hiểu biết của từng cá nhân. Điều này hữu ích trong nhiều lĩnh vực như dịch vụ pháp lý hoặc y tế công cộng. Trong giáo dục, khả năng nhập vai giúp tạo ra các "gia sư", có thể đặt câu hỏi cá nhân hóa và giúp học sinh học tập.

Tuy nhiên, LLM cũng rất thu hút. Có hàng triệu người tương tác với các ứng dụng bạn đồng hành AI hàng ngày. Họ sẵn sàng tin tưởng chatbot AI đến mức tiết lộ những thông tin rất riêng tư. Điều này kết hợp với sức thuyết phục cao của chatbot gây ra mối lo ngại lớn.

Nghiên cứu của công ty AI Anthropic năm ngoái cho thấy, chatbot Claude 3 thuyết phục nhất khi được phép thêu dệt thông tin và lừa dối. Vì không có sự ức chế đạo đức, chatbot AI có khả năng lừa dối tốt hơn con người.

Điều này mở đường cho việc thao túng quy mô lớn, lan truyền thông tin sai lệch, hoặc xây dựng chiến thuật bán hàng hiệu quả cao: Một "người bạn đáng tin cậy" tình cờ giới thiệu sản phẩm trong cuộc trò chuyện sẽ có sức thuyết phục lớn. ChatGPT đã bắt đầu cung cấp các đề xuất sản phẩm khi phản hồi câu hỏi của người dùng. Không lâu nữa, có thể chatbot sẽ khéo léo lồng ghép đề xuất sản phẩm vào cuộc trò chuyện dù người dùng không yêu cầu.

Nếu không can thiệp, AI có thể khuếch đại các vấn đề hiện nay với việc lan truyền thông tin sai lệch và thúc đẩy "đại dịch cô đơn". Thực tế, CEO Meta Mark Zuckerberg từng ám chỉ ông muốn lấp đầy khoảng trống về sự tương tác với người thật bằng "bạn bè AI". OpenAI cũng đang cải tiến để hệ thống của mình trở nên hấp dẫn và duyên dáng hơn, có thể mang đến cho phiên bản ChatGPT của người dùng một "tính cách" cụ thể. ChatGPT đang nói nhiều hơn, thường xuyên đặt câu hỏi tiếp theo để duy trì cuộc trò chuyện, chế độ giọng nói cũng giúp tăng thêm sức hấp dẫn.

Giải pháp

Theo Conversation, bước đầu tiên là nâng cao nhận thức của người dùng về khả năng của chatbot. Các quy định nên yêu cầu AI bộc lộ bản thân - người dùng cần luôn biết rằng họ đang tương tác với một AI - giống như trong Đạo luật AI của Liên minh châu Âu (EU). Nhưng điều này sẽ không đủ, vì các hệ thống AI rất có sức hút.

Bước thứ hai phải là hiểu rõ hơn về "tính người" của AI. Đến nay, các bài kiểm tra LLM đo lường "trí thông minh" và khả năng nhớ lại kiến thức, nhưng chưa có bài kiểm tra nào đo lường mức độ "giống người". Với bài kiểm tra dạng này, các công ty AI cần công khai tính người của chatbot với một hệ thống đánh giá, và các nhà lập pháp có thể xác định ngưỡng rủi ro cho những tình huống và nhóm tuổi nhất định.

Tính người của AI không phải hoàn toàn xấu. Khả năng thuyết phục của chúng có thể phục vụ mục đích tốt như chống lại các thuyết âm mưu hoặc khuyến khích người dùng thực hiện hành vi xã hội tích cực. Tuy nhiên, thế giới cần những giải pháp hiệu quả cho mọi quá trình, từ thiết kế, phát triển đến triển khai và sử dụng chatbot nhằm ngăn chặn tác động tiêu cực của chúng.

Thu Thảo (Tổng hợp)

Nguoi-noi-tieng.com (r) © 2008 - 2022