Tạo không gian thúc đẩy phát triển công nghiệp trí tuệ nhân tạo

(BĐT) - Dự thảo Luật Trí tuệ nhân tạo (AI) dự kiến trình Quốc hội tại Kỳ họp thứ 10 (tháng 10/2025) để có hiệu lực thi hành vào đầu năm 2026. Theo ông Nguyễn Thế Trung - Chủ tịch HĐQT Công ty DTT, thành viên Tổ công tác giúp Ủy ban quốc gia về Chính phủ số, đây không chỉ là một văn bản pháp lý, mà còn là một bản tuyên ngôn chiến lược, thể hiện tầm nhìn và khát vọng của Việt Nam trong việc làm chủ và phát triển công nghệ Trí tuệ nhân tạo (AI) một cách có trách nhiệm.

Tạo không gian thúc đẩy phát triển công nghiệp trí tuệ nhân tạo

Phân tầng quản lý - mở đường cho doanh nghiệp sáng tạo

Công nghệ AI đang phát triển như vũ bão trên toàn cầu. Nhiều quốc gia đang lựa chọn công nghệ AI làm trụ cột của chiến lược phát triển. Việc Việt Nam ban hành Nghị quyết 57-NQ/TW vào cuối năm 2024 được nhiều ý kiến cho rằng, đây là bước đi táo bạo nhằm tận dụng AI như một động lực mới cho sự phát triển bền vững, công bằng và bao trùm. Tại Nghị quyết 57-NQ/TW, Việt Nam đặt mục tiêu tham vọng là đến năm 2030, Việt Nam thuộc nhóm 3 nước dẫn đầu khu vực Đông Nam Á về nghiên cứu và phát triển AI, và đến năm 2045, trở thành một trong các trung tâm công nghiệp công nghệ số của khu vực.

Trong giai đoạn 2026 - 2030, AI được dự báo sẽ tạo hơn 170 triệu việc làm mới và đóng góp khoảng 5.000 tỷ USD vào nền kinh tế thế giới. Tại Việt Nam, từ nay đến năm 2030, lợi ích kinh tế do AI mang lại có thể lên tới 79 tỷ USD. “Nếu Việt Nam làm tốt điều này, thì mục tiêu, khát vọng dân tộc đặt ra tại Nghị quyết số 57-NQ/TW là có thể đạt được”, ông Trần Văn Khải - Phó Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường của Quốc hội nhận định tại Hội thảo Góp ý hoàn thiện Dự thảo Luật AI diễn ra vào ngày 17/10/2025.

1c741d58-36f5-41a6-a4dd-51b1ed83ee69.jpg
Phân khúc tiềm năng nhất mà doanh nghiệp Việt Nam có thể tham gia hiệu quả, theo ông ông Nguyễn Thế Trung, đó là phát triển ứng dụng và hệ thống AI

Chỉ ra cơ hội phát triển AI cho Việt Nam, ông Nguyễn Thế Trung cho rằng, hiện nay công nghệ AI có thể chia thành 6 cấp độ kỹ thuật.

Trong đó, cấp độ 1, 2 và 6 thường do những nhà cung cấp công nghệ nền tảng quốc tế phát triển, doanh nghiệp Việt Nam khó chen chân được trong cuộc đua này. Những nhà cung cấp công nghệ nền tảng (cấp 1, 2, 6) thường là những tập đoàn công nghệ quốc tế, các phòng thí nghiệm tiên phong, đóng vai trò đầu nguồn cung cấp công nghệ lõi. Do đó, khung pháp lý cần vừa đảm bảo chủ quyền số, vừa thu hút được các công nghệ tiên tiến nhất.

“Việc yêu cầu nhà cung cấp công nghệ nền tảng phải hiện diện thương mại nghiêm ngặt như “thành lập pháp nhân” hoặc “chỉ định đại lý” có thể là một rào cản thương mại không tương xứng, nghiêm ngặt hơn đáng kể so với thông lệ quốc tế (tiêu chuẩn GDPR và EU AI Act chỉ yêu cầu “đại diện được uỷ quyền”), khiến một số nhà cung cấp dịch vụ đáp mây quyết định không chính thức vào Việt Nam. Việc giao hoàn toàn cho Chính phủ quy định chi tiết mà không có cơ chế tham vấn bắt buộc trong Luật sẽ tạo ra sự bất định cho các nhà phát triển mô hình lớn”, ông Trung quan ngại.

Phân khúc tiềm năng nhất mà doanh nghiệp Việt Nam có thể tham gia hiệu quả, theo ông Trung, đó là phát triển ứng dụng và hệ thống AI (ở cấp độ 3, 4, 5). “Đây là trái tim của hệ sinh thái AI quốc gia, bao gồm phần lớn các doanh nghiệp công nghệ và startup Việt Nam. Do đó, chính sách hỗ trợ cần gắn chặt với thực tế này, ưu tiên hỗ trợ SME (miễn giảm phí, ưu tiên tham gia hộp cát và cung cấp bộ hồ sơ tuân thủ rút gọn…). Dự thảo Luật AI hiện có đề xuất đơn giản hoá hồ sơ như sử dụng “báo cáo đánh giá tác động hợp nhất” giúp doanh nghiệp thoát khỏi ma trận tuân thủ khi một sản phẩm AI liên quan đến nhiều luật khác nhau. Giải pháp này có thể xem một trong những cải cách thủ tục hành chính đột phá, giúp tiết kiệm chi phí và thời gian khổng lồ”, ông Trung nói.

Cần quy định rõ ràng và thu hẹp phạm vi bị cấm

Theo Thứ trưởng Bộ Khoa học và Công nghệ Phạm Đức Long, Dự thảo Luật được xây dựng trên cơ sở tham khảo các thông lệ quốc tế như: quản lý dựa trên rủi ro, cơ chế thử nghiệm có kiểm soát (sandbox), đạo đức và quyền con người trong AI, hay các quy định về minh bạch, giải trình và gắn nhãn nội dung sáng tạo bởi AI…

Phân tích dựa trên các cấp độ kỹ thuật AI nêu trên, ông Trung cho rằng, mỗi quốc gia lại có một cách tiếp cận riêng. Cách tiếp cận của Liên minh châu Âu (EU) rất thực tế và hiệu quả trong việc quản lý các rủi ro đã biết từ các ứng dụng cụ thể, nhưng phản ứng chậm với sự thay đổi, có thể bỏ lỡ các rủi ro hệ thống tiềm cần trong các mô hình nền tảng. Hoa Kỳ (Sắc lệnh Hành pháp về AI) lại đang theo đuổi cách quản lý rủi ro tận gốc, ngay từ các mô hình nền tảng, nhưng cũng có thể sa đà vào quản lý công nghệ thay vì quản lý tác hại thực tế…

“Giải pháp tối ưu đối với Việt Nam là kết hợp cả hai lớp. Quản lý nền tảng áp dụng riêng cho một số ít các nhà phát triển mô hình, trong đó tập trung vào an toàn, thử nghiệm, minh bạch và đánh giá khả năng. Còn quản lý ứng dụng là áp dụng theo kim tự tháp rủi ro cho tất cả các nhà phát triển triển khai ứng dụng AI vào xã hội, trong đó họ phải có trách nhiệm đảm bảo ứng dụng an toàn trong bối cảnh cụ thể”, ông Trung đề xuất.

Do sự phát triển liên tục và thay đổi nhanh chóng của công nghệ và hệ thống AI và chưa có nhiều quốc gia có hệ thống luật pháp hoàn chỉnh, nên ý kiến của các chuyên gia và cộng đồng doanh nghiệp trên nhiều diễn đàn đều thể hiện chung quan điểm, Dự thảo Luật AI cần có những quy định linh hoạt để tạo khung pháp lý và không nên quá cầu toàn nhưng cần phải quy định rõ ràng để có thể thực hiện được ngay. Nếu không thì Việt Nam sẽ lỡ nhịp, mất cơ hội phát triển nhanh như mục tiêu Nghị quyết 57 đã đặt ra.

Theo Luật sư Nguyễn Tuấn Linh – Công ty Luật quốc tế BMVN – liên minh hãng luật quốc tế Baker McKenzie, Ban soạn thảo Luật AI cần đánh giá cụ thể để phân bổ trách nhiệm pháp lý và trách nhiệm giải trình trong các trường hợp rủi ro cao như hệ thống AI tạo ra hoặc chỉnh sửa nội dung mô phỏng người, vật, địa điểm hoặc sự kiện thực có thể gây nhầm lẫn (AI mô phỏng) theo hướng trách nhiệm pháp lý phải tỷ lệ thuận với mức độ kiểm soát và kiến thức, hiểu biết về hệ thống AI.

TS. Nguyễn Bích Thảo - Chủ nhiệm Khoa Luật Dân sự, Trường Đại học Luật, Đại học Quốc gia Hà Nội cho biết, hiện Việt Nam chưa phát sinh trường hợp người bị ảnh hưởng khởi kiện nhà cung cấp và bên triển khai do quyết định của hệ thống AI tạo rủi ro cao. Trên thế giới, vụ kiện điển hình gần đây là tại Canada, người bị ảnh hưởng kiện hãng hàng không vì chatbox tư vấn đặt vé sai.

Theo thông lệ quốc tế, ở khía cạnh pháp luật dân sự, khi bị xâm phạm về tính mạng, sức khoẻ, nhân phẩm, thì người bị ảnh hưởng có thể khởi kiện ra toà dân sự, có quyền đòi nhà cung cấp và phát triển hệ thống AI tạo ra rủi ro cao bồi thường thiệt hại. Tuy nhiên, hiện nay các quốc gia khá thận trọng trong việc quy định trách nhiệm bồi thường đối với hệ thống AI rủi ro cao do sức ép của làn sóng thúc đẩy đổi mới sáng tạo công nghệ.

Do đó, bà Thảo cho rằng, Ban soạn thảo cần cân nhắc thu hẹp phạm vi bị cấm, mức bồi thường thiệt hại do AI tạo ra phải dựa trên nguyên tắc thiệt hại đến đâu bồi thường đến đấy, tránh đưa ra mức bồi thường cao hơn Luật Dân sự hiện hành. Mục tiêu của Luật Dân sự không phải là để trừng phạt (xử lý hình sự và xử phạt vi phạm hành chính), mà là khôi phục quyền lợi người thiệt hại, đảm bảo công lý, hiệu chỉnh và sửa chữa hành vi sai lầm, không đạt chuẩn.

“Đối với một số hệ thống AI rủi ro cao, Nhà nước có thể sử dụng luật cứng (tiền kiểm, đánh giá rủi ro bằng dán nhãn), còn lại nên tạo không gian cho doanh nghiệp thoả sức sáng tạo, đổi mới. Quan trọng nhất là phân loại đâu là hệ thống AI rủi ro cao, đâu là hệ thống AI rủi ro thấp để có quản lý phù hợp, tránh bỏ lọt tội phạm công nghệ”, bà Thảo nhấn mạnh.

Kết nối đầu tư