Anthropic hiện tìm kiếm ứng viên có kinh nghiệm trong lĩnh vực phòng thủ, chống vũ khí hóa học hoặc chất nổ, cùng với kiến thức về thiết bị phát tán phóng xạ. Công ty cho biết vai trò này nhằm đảm bảo rằng mô hình AI đang phát triển "không thể bị thao túng để tạo ra các chỉ thị có hại".

Để ứng tuyển, ứng viên cần có ít nhất 5 năm kinh nghiệm trong lĩnh vực phòng vệ hóa học, chất nổ, cũng như hiểu biết về thiết bị phát tán phóng xạ. Việc tuyển dụng là một phần của chiến lược "Kiểm thử tấn công giả lập" (Red Teaming). Trong đó, các chuyên gia đóng vai "kẻ xấu", đánh giá khả năng của mô hình trong việc tạo ra thông tin sinh học có hại để từ đó tìm ra lỗ hổng và vá lỗi.

Trước đó, nghiên cứu của Anthropic cảnh báo các mô hình ngôn ngữ lớn (LLM) có thể giúp rút ngắn đáng kể thời gian tổng hợp vũ khí sinh học nếu không được kiểm soát chặt chẽ. Theo giới phân tích, sự có mặt của các chuyên gia này giúp tăng cường chính sách an toàn và biện pháp bảo vệ kỹ thuật, ngăn người dùng lợi dụng AI trích xuất thông tin nguy hiểm.

872c8a683bbe44379c63e75701bd30-1671-8537-1773849705.png?w=680&h=0&q=100&dpr=1&fit=crop&s=BT2rStc4eU6TTdoGOHhlkA

Logo của OpenAI và Anthropic hiển thị trên smartphone. Ảnh: VCG

OpenAI, công ty đứng sau ChatGPT, cũng đang tuyển dụng nhà nghiên cứu về rủi ro sinh học và hóa học. Vị trí này tập trung vào nghiên cứu cách các mô hình AI tiên tiến có thể bị lạm dụng, sau đó phát triển các hệ thống để ngăn chặn hành vi này. Công ty của Sam Altman đưa ra mức lương 455.000 USD, nhưng số lượng tuyển dụng hạn chế.

Theo India Times, việc các công ty AI tăng cường tìm kiếm người ngăn chặn "bom bẩn" phản ánh sự nhận thức ngày càng tăng trong ngành công nghiệp AI, rằng các mô hình ngôn ngữ mạnh mẽ có thể vô tình cung cấp kiến thức kỹ thuật nhạy cảm và nguy hiểm nếu không có biện pháp bảo vệ thích hợp. Bằng cách tuyển chuyên gia am hiểu về vũ khí hóa học và mối đe dọa từ chất nổ, các công ty kỳ vọng sẽ thiết kế các biện pháp bảo vệ ngăn chặn AI tạo ra nội dung có hại, đồng thời duy trì tính hữu ích cho nghiên cứu, giáo dục và giải quyết những vấn đề chính đáng.

Tuy nhiên, hướng đi này cũng vấp phải ý kiến trái chiều từ giới chuyên gia. Một số nhà nghiên cứu lập luận rằng, những hệ quả rộng hơn của việc để AI tiếp xúc với kiến thức nhạy cảm liên quan đến vũ khí cần được xem xét kỹ lưỡng.

"Việc để AI xử lý thông tin nhạy cảm về hóa chất và chất nổ, vũ khí phóng xạ liệu có an toàn hay không?", tiến sĩ Stephanie Hare, nhà nghiên cứu công nghệ kiêm MC chương trình AI Decoded của BBC, đặt vấn đề. "Hiện chưa có hiệp ước quốc tế hay quy định cụ thể nào điều chỉnh việc sử dụng AI trong các lĩnh vực này và phần lớn hoạt động vẫn diễn ra ngoài tầm kiểm soát".

Dù vậy, giới chuyên gia đồng tình việc doanh nghiệp AI tuyển dụng các vị trí kiểm soát AI tổng hợp kiến thức về vũ khí. Nó cũng cho thấy ngành công nghệ toàn cầu đang phải đối mặt với áp lực ngăn chặn các thảm họa tiềm tàng từ trí tuệ nhân tạo.

Thùy Dương tổng hợp

  • Cơn sốt AI kéo Gen Z vào nghề thợ điện
  • Ông chủ ChatGPT: AI đang trở thành 'vật tế' cho sa thải
  • Lập trình viên Việt giữa 'dòng xoáy' tác nhân AI
  • Quá tải não vì AI
  • Xu hướng người trẻ đẩy cuộc trò chuyện khó cho AI

Nguoi-noi-tieng.com (r) © 2008 - 2022