ao-giac-AI-1742637643-6828-1742638117.jpg?w=680&h=0&q=100&dpr=1&fit=crop&s=ZopMAoClnjRxhKoT7EvUBA

Hiện tượng ảo giác AI ảnh hưởng tiêu cực đến những tình huống cần độ chính xác cao. Ảnh: LinkedIn

Khi một hệ thống thuật toán tạo ra thông tin nghe có vẻ hợp lý nhưng thực chất không chính xác hoặc gây hiểu lầm, các nhà khoa học máy tính gọi đó là ảo giác AI. Họ đã phát hiện hành vi này trong nhiều loại hệ thống AI khác nhau, từ chatbot như ChatGPT, công cụ tạo hình ảnh như Dall-E đến xe tự lái.

AI bịa đặt

Ảo giác và tác động của chúng phụ thuộc vào loại hệ thống AI. Với các mô hình ngôn ngữ lớn (LLM) - công nghệ nền tảng của chatbot AI - ảo giác là những thông tin nghe có vẻ thuyết phục nhưng không chính xác, được bịa đặt hoặc không liên quan. Chatbot AI có thể đề cập đến một nghiên cứu khoa học không tồn tại hoặc cung cấp sự kiện lịch sử sai, nhưng lại khiến chúng nghe có vẻ đáng tin.

Trong một vụ án năm 2023, một luật sư New York đã nộp bản tóm tắt pháp lý mà ông viết với sự trợ giúp của ChatGPT. Một thẩm phán tinh ý sau đó nhận thấy bản tóm tắt trích dẫn một vụ án mà ChatGPT bịa ra. Điều này có thể dẫn đến những kết quả khác trong phòng xử án.

Với những công cụ AI có thể nhận dạng đối tượng trong ảnh, ảo giác xảy ra khi chúng viết chú thích không trung thực với hình ảnh đó. Ví dụ, khi yêu cầu AI liệt kê các đối tượng trong bức ảnh về một phụ nữ, chỉ chụp từ ngực trở lên, đang nói chuyện điện thoại, AI lại phản hồi rằng người phụ nữ đang nói chuyện điện thoại trong khi ngồi trên ghế. Thông tin không chính xác này có thể dẫn đến nhiều hậu quả trong tình huống đòi hỏi độ chính xác cao.

Nguyên nhân dẫn đến ảo giác

Các kỹ sư xây dựng hệ thống AI bằng cách thu thập lượng dữ liệu khổng lồ và đưa nó vào một hệ thống tính toán có thể phát hiện các dạng mẫu trong dữ liệu. Hệ thống phát triển các phương pháp để trả lời câu hỏi hoặc thực hiện nhiệm vụ dựa trên những dạng mẫu đó.

Ví dụ, khi cung cấp cho một hệ thống AI 1.000 bức ảnh về nhiều giống chó khác nhau, được gắn nhãn tương ứng, hệ thống sẽ nhanh chóng biết cách phân biệt chó poodle với golden retriever. Nhưng nếu đưa ra bức ảnh về một chiếc bánh muffin việt quất, hệ thống có thể nói với người dùng rằng đó là chó chihuahua.

Khi hệ thống không hiểu câu hỏi hoặc thông tin được cung cấp, nó có thể gặp ảo giác. Ảo giác thường xảy ra khi AI tự điền vào khoảng trống dựa trên bối cảnh tương tự từ dữ liệu đào tạo của nó, hoặc khi nó được xây dựng bằng dữ liệu đào tạo thiên lệch hoặc không đầy đủ. Điều này dẫn đến những dự đoán sai, như trong trường hợp chiếc bánh muffin việt quất.

file-20250318-56-lc58g2-174263-9230-2240-1742638117.jpg?w=680&h=0&q=100&dpr=1&fit=crop&s=lCAkyrwkSXOjsfTxssGvYQ

AI nhận dạng đối tượng có thể gặp khó khăn trong việc phân biệt giữa chó chihuahua và bánh muffin việt quất, giữa chó chăn cừu và cây lau nhà. Ảnh: Shenkman

Phân biệt giữa ảo giác AI với nội dung sáng tạo có chủ ý cũng rất quan trọng. Khi một hệ thống AI được yêu cầu sáng tạo - như khi viết một câu chuyện hoặc tạo ra hình ảnh nghệ thuật - người dùng sẽ mong đợi nội dung đầu ra mới lạ. Trong khi đó, ảo giác xảy ra khi hệ thống AI được yêu cầu cung cấp thông tin thực tế hoặc thực hiện một số nhiệm vụ nhất định, nhưng nó lại tạo ra nội dung sai lệch hoặc gây hiểu lầm mà vẫn trình bày chúng là chính xác.

Khác biệt mấu chốt nằm ở ngữ cảnh và mục đích: Sự sáng tạo phù hợp với các nhiệm vụ nghệ thuật, trong khi ảo giác là một vấn đề rắc rối khi cần độ chính xác và đáng tin cậy.

Để giải quyết, các công ty đã đề xuất sử dụng dữ liệu đào tạo chất lượng cao và giới hạn phản hồi của AI theo những chỉ dẫn nhất định. Tuy nhiên, ảo giác có thể vẫn tồn tại trong những công cụ AI phổ biến.

Hậu quả của ảo giác AI

Xe tự lái không xác định được đối tượng có thể dẫn đến một vụ tai nạn giao thông chết người. Drone quân sự xác định sai mục tiêu có thể khiến tính mạng người dân gặp nguy hiểm.

Với công cụ AI cung cấp tính năng nhận dạng giọng nói tự động, ảo giác là những bản ghi chép bao gồm từ hoặc cụm từ chưa bao giờ được nói. Điều này dễ xảy ra hơn trong môi trường ồn ào, khiến hệ thống AI tự thêm các từ mới hoặc không liên quan trong nỗ lực giải mã tiếng ồn xung quanh, ví dụ như tiếng xe tải chạy qua hoặc một đứa trẻ đang khóc.

Khi các hệ thống AI ngày càng được sử dụng phổ biến trong nhiều lĩnh vực như chăm sóc sức khỏe, dịch vụ xã hội và pháp lý, ảo giác trong nhận dạng giọng nói tự động có thể dẫn đến những kết quả lâm sàng hoặc pháp lý không chính xác, gây hại cho bệnh nhân, bị cáo hoặc các gia đình cần hỗ trợ xã hội.

Dù các công ty AI đang nỗ lực giảm ảo giác, người dùng vẫn cần tự cảnh giác và đặt câu hỏi về kết quả đầu ra của AI, đặc biệt là trong tình huống yêu cầu độ chính xác cao. Kiểm tra lại thông tin do AI tạo ra với các nguồn đáng tin cậy, tham khảo ý kiến chuyên gia và nhận ra hạn chế của công cụ này là những bước cần thiết giúp giảm rủi ro từ chúng.

Thu Thảo (Theo Conversation)

Nguoi-noi-tieng.com (r) © 2008 - 2022