"Chúng ta đang bước vào kỷ nguyên mới của an ninh mạng và xã hội, nơi AI đóng vai trò là tấm khiên để phòng thủ, còn Dark AI bị biến thành vũ khí nguy hiểm trong các cuộc tấn công mạng," ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) của Kaspersky, cảnh báo tại sự kiện tuần lễ an ninh mạng tổ chức hồi đầu tháng 8 tại Đà Nẵng.

Dark AI được dùng để chỉ việc triển khai các mô hình ngôn ngữ lớn (LLMs) nằm ngoài hệ thống kiểm soát và tiêu chuẩn an toàn, nhằm phục vụ mục đích phi đạo đức hoặc trái phép. Khác với những nền tảng AI chính thống vốn có các cơ chế bảo vệ, Dark AI thường bị khai thác để lừa đảo, thao túng, tấn công mạng hoặc khai thác dữ liệu mà không chịu bất kỳ sự giám sát nào.

Anh-Kaspersky-3-Nation-state-A-9257-8960-1755430918.jpg?w=680&h=0&q=100&dpr=1&fit=crop&s=rEiqM2lBuDAPmls7h-BUAw

Chuyên gia an ninh mạng Sergey Lozhkin. Ảnh: Kaspersky

Theo ông Lozhkin, sự trỗi dậy của Dark AI gắn liền với sự xuất hiện của các mô hình Black Hat GPT từ giữa năm 2023. Đây là các biến thể AI được tùy chỉnh để tạo mã độc, soạn email lừa đảo có tính thuyết phục cao, tạo giọng nói và video deepfake, thậm chí hỗ trợ tin tặc thực hiện các cuộc tấn công mô phỏng. Một số cái tên đã được ghi nhận gồm WormGPT, DarkBard, FraudGPT hay Xanthorox, tất cả đều được thiết kế để phục vụ cho hoạt động tội phạm mạng và tự động hóa độc hại.

Chuyên gia của Kaspersky cho biết, không chỉ tội phạm mạng, các nhóm tấn công được hậu thuẫn từ chính phủ một số nước cũng bắt đầu tận dụng mô hình ngôn ngữ lớn trong các chiến dịch.

Trên thực tế, OpenAI từng công bố ngăn chặn hơn 20 chiến dịch lợi dụng công cụ AI để thực hiện tấn công mạng và phát tán thông tin sai lệch. Ở đó, kẻ xấu có thể sản xuất hàng loạt nội dung giả mạo bằng nhiều ngôn ngữ, vượt qua các lớp bảo mật thông thường và dễ dàng đánh lừa nạn nhân.

DSC03419-JPG-9238-1755430918.jpg?w=680&h=0&q=100&dpr=1&fit=crop&s=8E9HD2lZ-5aHO0spgoyaHg

Một số ứng dụng AI tạo sinh hiển thị trên smartphone. Ảnh: Bảo Lâm

"AI vốn không tự phân biệt đúng sai, nó chỉ làm theo chỉ dẫn", ông Lozhkin nói. Tuy nhiên, trong bối cảnh công cụ Dark AI trở nên phổ biến, các tổ chức và cá nhân cần tăng cường kỷ luật an ninh mạng, đầu tư vào giải pháp phát hiện mối đe dọa do AI hỗ trợ và chủ động cập nhật kiến thức để không trở thành nạn nhân.

Để đối phó, Kaspersky khuyến nghị các tổ chức siết chặt kiểm soát truy cập và đào tạo nhân viên, nhằm hạn chế Shadow AI - tình trạng nhân sự nội bộ tự ý dùng công cụ AI mà không có sự giám sát, dẫn đến nguy cơ rò rỉ dữ liệu. Các biện pháp như xây dựng trung tâm điều hành an ninh mạng (SOC) hay triển khai giải pháp bảo mật thế hệ mới được đề xuất nhằm phát hiện các mối đe dọa do AI tạo ra.

Trong bức tranh chung, báo cáo An ninh mạng năm 2025 của Cisco cho thấy thách thức này không chỉ mang tính lý thuyết. Tại Việt Nam, 62% tổ chức thừa nhận thiếu tự tin trong việc phát hiện nhân viên sử dụng AI ngoài tầm kiểm soát. Dù 44% nhân viên trong các tổ chức tại Việt Nam đang dùng các công cụ GenAI được phê duyệt, nhưng 40% bộ phận CNTT trả lời khảo sát nói không nắm rõ cách nhân viên tương tác với AI.

Trọng Đạt

  • Việt Nam trong top 10 nước dùng 'sổ tay AI' của Google
  • 'Nên phổ cập AI toàn dân trước khi tính chuyện nghiên cứu'
  • Nền tảng AI tạo video ngắn 'mì ăn liền'

Nguoi-noi-tieng.com (r) © 2008 - 2022