Trả lời ý kiến đại biểu tại phiên thảo luận ở Quốc hội chiều 27/11, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng cho biết dự luật Trí tuệ nhân tạo được xây dựng theo hướng luật khung, kế thừa kinh nghiệm quốc tế để đáp ứng yêu cầu vừa kiểm soát rủi ro vừa tạo không gian đổi mới. Các quy định chi tiết mang tính kỹ thuật sẽ giao Chính phủ ban hành nhằm đảm bảo sự linh hoạt trong bối cảnh công nghệ thay đổi nhanh.
Ông cho rằng quản trị AI thực chất là quản trị trí tuệ, tương tự cách xã hội điều chỉnh việc con người sử dụng tri thức khi tác động đến cộng đồng. Trí tuệ được hình thành từ giáo dục và thông tin chính thống, vì vậy dữ liệu đầu vào sẽ được quản lý bằng Luật Dữ liệu và Luật Bảo vệ dữ liệu cá nhân; doanh nghiệp AI phải công bố nguồn dữ liệu hợp pháp; hệ thống AI phải đánh giá rủi ro, kiểm định độc lập và có trách nhiệm giải trình.
Về đầu ra, Nhà nước áp dụng tiêu chuẩn an toàn, cơ chế hậu kiểm và chế tài đối với vi phạm. "Quản trị AI không phải phát minh cơ chế hoàn toàn mới mà kế thừa kinh nghiệm quản lý trí tuệ của con người áp dụng cho một công cụ mạnh hơn và nhanh hơn", Bộ trưởng nói.
Ông nhấn mạnh nguyên tắc cao nhất là lấy con người làm trung tâm; AI phục vụ con người, không thay thế quyền quyết định. Minh bạch là yêu cầu bắt buộc và người dân phải biết khi nào mình đang tương tác với AI. Trách nhiệm pháp lý khi hệ thống AI gây thiệt hại sẽ được phân định giữa nhà phát triển, nhà cung cấp, đơn vị triển khai và người sử dụng
Nhà nước sẽ xây dựng trung tâm siêu tính toán và dữ liệu AI quốc gia phục vụ nghiên cứu và huấn luyện; khuyến khích mô hình ngôn ngữ tiếng Việt và dữ liệu số để giảm phụ thuộc nước ngoài. AI trong dịch vụ công và lĩnh vực nhạy cảm phải chạy trên hạ tầng AI của Việt Nam. Các lĩnh vực ưu tiên gồm hành chính công, y tế, giáo dục, nông nghiệp, công nghiệp và giao thông.

Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng phát biểu trước Quốc hội chiều 27/11. Ảnh: Hoàng Phong
Bộ trưởng đồng tình quản lý AI theo ba mức rủi ro thấp, trung bình và cao. Về câu hỏi AI có phải là nguồn nguy hiểm cao độ hay không, ông cho rằng nguồn nguy hiểm cao độ thường là các phương tiện vật lý vốn đã nguy hiểm như ôtô, thuốc nổ. Dù người dùng đã cẩn thận thì vẫn có thể gây ra tai nạn. AI trong dự thảo luật này không phải phương tiện vật lý gây nguy hiểm, mà rủi ro từ việc ra quyết định.
Theo Bộ trưởng, AI mang lại lợi ích lớn nhưng cũng có rủi ro và nhiều vấn đề của AI có thể được giải quyết bằng chính AI như đào tạo nhân lực, phát hiện vi phạm đạo đức hay nhận diện deepfake. "AI và các vấn đề của nó sẽ luôn tồn tại. Chúng ta không loại bỏ mà chung sống và quản trị khôn ngoan", ông nói.
Cần cơ chế thử nghiệm có kiểm soát với AI
Đại biểu Hoàng Minh Hiếu (Ủy ban Pháp luật và Tư pháp) đánh giá cơ quan soạn thảo đã giải trình đầy đủ ý kiến của đại biểu trong thảo luận tổ và đồng tình với cách tiếp cận vừa thúc đẩy AI phát triển vừa kiểm soát rủi ro. Theo ông, cơ chế thử nghiệm có kiểm soát (Sandbox) là cần thiết vì AI là lĩnh vực mới, liên quan nhiều ngành và khó áp dụng hiệu quả nếu chỉ dựa vào khuôn khổ pháp lý hiện hành.
Mục tiêu của Sandbox là tạm gỡ rào cản pháp lý, cho phép thử nghiệm mô hình trong phạm vi giới hạn để thu dữ liệu chứng minh hiệu quả, từ đó hoàn thiện quy định lâu dài. Cách làm này phù hợp tư duy lập pháp "thể chế đi trước", mở đường cho đổi mới. Ông đề nghị dự luật cần quy định cụ thể hơn về cơ chế này.
Đại biểu Thạch Phước Bình (đoàn Vĩnh Long) nhất trí với định hướng thúc đẩy Sandbox, dữ liệu mở và hạ tầng tính toán. Ông đề xuất ưu tiên thử nghiệm cho y tế, giáo dục, tài chính và hành chính công; xác định tiêu chí lựa chọn doanh nghiệp, thời hạn thử nghiệm và cơ chế minh bạch.
Theo ông, Nhà nước cần hỗ trợ doanh nghiệp nhỏ, startup tiếp cận hạ tầng tính toán quốc gia, đặc biệt là GPU và siêu máy tính, thông qua trợ giá hoặc hạn mức miễn phí. Đại biểu cũng đề nghị xây dựng kho dữ liệu mở quốc gia, cơ chế chia sẻ dữ liệu công bằng đáp ứng yêu cầu bảo mật; đồng thời triển khai chính sách đặc thù để thu hút và giữ chân nhân tài AI từ bậc đại học đến chuyên gia quốc tế.

Đại biểu Hoàng Minh Hiếu, chuyên trách Ủy ban Pháp luật và Tư pháp, phát biểu tại nghị trường. Ảnh: Hoàng Phong
Xử lý hình sự hành vi cố ý triển khai AI rủi ro cao không kiểm thử
Đại biểu Phạm Trọng Nhân nêu thực tế Trung Quốc chỉ trong 10 tháng đã nộp hơn 62.000 bằng sáng chế AI, gấp 12 lần tổng bằng sáng chế của Việt Nam từ trước đến nay; Mỹ thu hút hơn 40 tỷ USD vốn tư nhân vào AI năm 2024, trong khi 99% mô hình nền tảng Việt Nam đang sử dụng là của nước ngoài. Đây là cảnh báo mạnh về chủ quyền số và nguy cơ phụ thuộc công nghệ.
Trong bối cảnh AI là hạ tầng mềm của năng suất quốc gia, liệu Việt Nam có thể chấp nhận chỉ là nơi tiêu thụ dữ liệu và ứng dụng của người khác? - Ông Nhân đặt vấn đề và cho rằng nếu không chủ động, Việt Nam sẽ bị bỏ lại phía sau trong chuỗi giá trị toàn cầu. Có ba rủi ro lớn hiện hữu gồm bất bình đẳng dữ liệu và quyền riêng tư; thiên lệch và thiếu minh bạch trong các quyết định do AI hỗ trợ; và deepfake cùng thao túng nhận thức. Trong 9 tháng đầu năm 2025 thế giới ghi nhận hơn 180.000 video deepfake chính trị, trong đó 41% nhắm vào lãnh đạo các nước đang phát triển.
"Chỉ vài giây video giả cũng có thể gây tổn hại nghiêm trọng đến uy tín và an ninh xã hội", ông nói, đề nghị 6 định hướng, gồm áp dụng quản lý dựa trên rủi ro với 4 mức phân loại; bảo vệ quyền công dân; yêu cầu nền tảng nước ngoài trên 5 triệu người dùng phải đặt pháp nhân tại Việt Nam; thành lập Ủy ban An toàn hệ thống AI trực thuộc Thủ tướng; cơ chế cập nhật theo thời gian thực; và chế tài đủ mạnh, bao gồm xử lý hình sự với hành vi cố ý triển khai AI rủi ro cao không kiểm thử, không minh bạch.
Đại biểu Phạm Trọng Nhân cũng nhấn mạnh dự luật không chỉ là văn bản kỹ thuật mà là tuyên ngôn về tư duy phát triển của Việt Nam, nhằm biến AI thành động lực mới, sức mạnh mới và năng lực cạnh tranh mới của quốc gia.




































