Dự thảo Luật Trí tuệ nhân tạo (AI): Cần một đạo luật cân bằng

(BĐT) - Trí tuệ nhân tạo (AI) đang phát triển với tốc độ bùng nổ, nhưng Việt Nam dường như vẫn đang ở bước khởi đầu. Trong bối cảnh đó, Bộ Khoa học và Công nghệ đang được giao xây dựng Dự thảo Luật Trí tuệ nhân tạo và dự kiến trình Quốc hội cho ý kiến vào Kỳ họp thứ 10 (tháng 10/2025). Việc lựa chọn mô hình nào để vừa quản lý, vừa tạo cơ hội cho doanh nghiệp thỏa sức đổi mới sáng tạo, phát triển giải pháp công nghệ, vừa bảo vệ người tiêu dùng đang là câu hỏi được nhiều người đặt ra lúc này.

Dự thảo Luật Trí tuệ nhân tạo (AI): Cần một đạo luật cân bằng

Cân bằng giữa kiểm soát và sáng tạo

Đại diện Ban soạn thảo, Thứ trưởng Bộ Khoa học và Công nghệ Phạm Đức Long cho biết, Dự thảo Luật được xây dựng trên cơ sở tham khảo các thông lệ quốc tế như: quản lý dựa trên rủi ro, cơ chế thử nghiệm có kiểm soát (sandbox), đạo đức và quyền con người trong AI, hay các quy định về minh bạch, giải trình và gắn nhãn nội dung sáng tạo bởi AI…

Tuy nhiên, cộng đồng doanh nghiệp và giới chuyên gia cho rằng, đây là một đạo luật khó và chưa có hình mẫu chung trên thế giới.

“Luật AI không chỉ là công cụ quản lý, mà là nền tảng để Việt Nam vươn lên thành trung tâm đổi mới sáng tạo khu vực về AI - nơi mà doanh nghiệp Việt có thể phát triển những giải pháp công nghệ Made in Vietnam, phục vụ người Việt và vươn ra toàn cầu”, ông Đậu Anh Tuấn - Phó Tổng thư ký kiêm Trưởng ban Pháp chế của Liên đoàn Thương mại và Công nghiệp Việt Nam (VCCI) nhấn mạnh.

Theo AWS, trong năm 2024 có khoảng 47.000 doanh nghiệp Việt Nam bắt đầu ứng dụng AI, tương đương hơn 5 doanh nghiệp mỗi giờ, đưa tổng số doanh nghiệp áp dụng AI lên đến gần 170.000 doanh nghiệp, chiếm khoảng 18% tổng số doanh nghiệp cả nước.

Thị trường chatbot Việt Nam cũng cho thấy tiềm năng tăng trưởng mạnh. Cụ thể, năm 2024, giá trị thị trường chatbot đạt khoảng 31,2 triệu USD và được dự báo sẽ tăng lên 207,1 triệu USD vào năm 2033 với tốc độ tăng trưởng kép (CAGR) 18,50%.

Chia sẻ những khó khăn để triển khai một cách đồng bộ lĩnh vực “AI trách nhiệm, quản trị AI, đảm bảo AI tuân thủ”, bà Trần Vũ Hà Minh - Cố vấn trưởng về Trí tuệ nhân tạo có trách nhiệm của FPT Software phân tích, là do tính chất kỹ thuật phức tạp; thiếu nhân lực vừa hiểu về thuật toán, dữ liệu, vừa hiểu về quy định pháp luật, đạo đức, quản trị công nghệ. Ngoài ra, việc áp dụng ngay các luật như EU AI Act hoặc các tiêu chuẩn quốc tế như ISO, hoặc khung quản lý rủi ro AI của Hoa Kỳ (NIST) thường là thách thức lớn ngay cả với các quốc gia có trình độ phát triển cao.

Ông Đoàn Tử Tích Phước - Trưởng đại diện Văn phòng phía Bắc của MoMo lo ngại, nếu đi theo mô hình quản lý rủi ro theo kiểu EU, doanh nghiệp sẽ ngại đổi mới vì luôn lo ngại rủi ro vi phạm pháp luật. Đây là một hệ thống khép kín, yêu cầu đăng ký hợp quy, hợp chuẩn, dãn nhãn, tiền kiểm… gây khó khăn cho việc tuân thủ của cho các nhà phát triển công nghệ, nhà cung cấp hệ thống AI.

Bà Nguyễn Việt Hà - Phó Chủ tịch Phòng Thương mại Hoa Kỳ tại Việt Nam (AmCham) cho rằng, cộng đồng doanh nghiệp Hoa Kỳ đang rất quan ngại với cách tiếp cận quản lý rủi ro theo mô hình châu Âu, dựa trên bản chất công nghệ và động cơ của nhà phát triển công nghệ, thay vì dựa vào mục đích của người sử dụng công nghệ. Điều này sẽ hạn chế sự đổi mới sáng tạo, linh hoạt cho sự phát triển của AI. Cơ chế tiền kiểm có nguy cơ làm tăng chi phí tuân thủ cho các nhà cung cấp hệ thống AI, đặc biệt là các đơn vị cung cấp hàng nghìn mô hình/hệ thống trên phạm vi toàn cầu, khiến cho thị trường Việt Nam kém cạnh tranh hơn…

Càng rõ ràng, càng dễ thực thi

LuatVietnam.vn đang triển khai hệ thống AI - trợ lý pháp lý ứng dụng AI giúp tra cứu, hỏi đáp và phân tích quy định pháp luật, nhưng ông Trần Văn Trí - Giám đốc LuatVietnam.vn cũng không khỏi băn khoăn về việc làm thế nào để quản lý nguồn dữ liệu huấn luyện và cơ chế xác định trách nhiệm đối với đầu ra AI; cách thức phân loại rủi ro của các hệ thống AI trong lĩnh vực phổ biến pháp luật; quy định gắn nhãn và công bố thông tin hệ thống AI.

Đại diện Công ty Luật TNHH Pháp lý Thương mại Việt Nam (Lexcomm Vietnam LLC) đề xuất, Việt Nam nên quy định hài hòa với các quy định quốc tế về gắn nhãn, minh bạch, gắn nhãn, tiêu chuẩn kỹ thuật và các trường hợp miễn trừ hợp lý đối với hệ thống AI và các nội dung tạo ra bởi AI. Chẳng hạn như cho phép sử dụng nhãn vô hình như EU. Đồng thời, chỉ nên áp dụng kiểm soát rủi ro đối với các hệ thống AI có nguy cơ cao, do Thủ tướng ban hành danh mục với các tiêu chí đánh giá cụ thể.

Ghi nhận những phản ánh và đề xuất nêu trên, Thứ trưởng Bộ Khoa học và Công nghệ Phạm Đức Long cho biết, qua nghiên cứu mô hình của các nước triển thế giới cho thấy, Mỹ và Trung Quốc - là hai cường quốc về AI dù chưa có luật AI nhưng vẫn quản lý qua cơ chế chỉ đạo, thí điểm có giám sát chặt. EU quản lý nghiêm ngặt nhưng dường như đang có tác động ngược, khiến nhà phát triển AI dè dặt. Nhật Bản chọn “thể chế mềm”, không chế tài, nhưng hiệu quả nhờ văn hóa tuân thủ cao. Việt Nam đang hướng tới mô hình Hàn Quốc hóa, quản lý có trọng tâm và ít điều cấm, khuyến khích sự sáng tạo có trách nhiệm, trong đó những lĩnh vực có mức độ rủi ro cao như y tế hay AI mô phỏng con người… vẫn phải dán nhãn và tiền kiểm minh bạch.

Theo ông Tuấn, EU, Mỹ, Trung Quốc hay Singapore đều theo đuổi các mô hình riêng, nhưng điểm chung là tạo hành lang pháp lý đủ an toàn để đổi mới, và đủ minh bạch để kiểm soát rủi ro. Nhấn mạnh việc không có “bản sao hoàn hảo”, ông Tuấn cho rằng: “Việt Nam cần chọn con đường phù hợp với mình - nhanh nhạy, nhưng không liều lĩnh; khuyến khích sáng tạo, nhưng không bỏ ngỏ trách nhiệm”.

Để Luật thực sự đi vào cuộc sống và trở thành động lực phát triển, ông Tuấn đề xuất 4 nguyên tắc xây dựng Luật AI. Một là linh hoạt và thích ứng trong khung pháp lý, cơ chế cập nhật, thử nghiệm và phản hồi chính sách nhanh. Hai là giảm tối đa rào cản hành chính cho doanh nghiệp. Ba là tập trung đầu tư hạ tầng dữ liệu và tính toán. Bốn là cần xác định rõ trách nhiệm pháp lý, đặc biệt trong chuỗi giá trị AI - từ nhà phát triển, nhà cung cấp đến người dùng.

Kết nối đầu tư