Theo đó, Nghị định quy định việc phân loại hệ thống trí tuệ nhân tạo phải dựa trên mức độ rủi ro theo quy định của Luật Trí tuệ nhân tạo và Nghị định này.
Nhà cung cấp phải thực hiện phân loại hệ thống trí tuệ nhân tạo trước khi đưa hệ thống vào sử dụng.
Bên triển khai phải phối hợp với nhà cung cấp để rà soát, phân loại lại hệ thống trí tuệ nhân tạo khi việc triển khai, sửa đổi, tích hợp hoặc thay đổi chức năng hoặc mục đích sử dụng làm phát sinh rủi ro mới hoặc rủi ro cao hơn của hệ thống đã được phân loại.
Nhà cung cấp và bên triển khai phải thực hiện đánh giá sự phù hợp đối với hệ thống trí tuệ nhân tạo có rủi ro cao theo quy định của Luật Trí tuệ nhân tạo và Nghị định này. Trường hợp kết quả đánh giá chưa bao phủ đầy đủ yêu cầu quản lý rủi ro đặc thù của hệ thống trí tuệ nhân tạo theo quy định của Luật Trí tuệ nhân tạo và Nghị định này, nhà cung cấp hoặc bên triển khai chỉ phải thực hiện bổ sung đối với nội dung chưa được đánh giá hoặc chưa được chứng minh.
Trường hợp hệ thống trí tuệ nhân tạo được tích hợp trong sản phẩm, hàng hóa hoặc dịch vụ thuộc phạm vi điều chỉnh của pháp luật chuyên ngành, pháp luật về tiêu chuẩn và quy chuẩn kỹ thuật hoặc pháp luật về chất lượng sản phẩm, hàng hóa thì tổ chức, cá nhân phải tuân thủ quy định của pháp luật đó đối với sản phẩm, hàng hóa hoặc dịch vụ tương ứng; đồng thời thực hiện các yêu cầu quản lý rủi ro đặc thù của thành phần trí tuệ nhân tạo theo quy định của Luật Trí tuệ nhân tạo và Nghị định này.
Cơ quan quản lý nhà nước về trí tuệ nhân tạo và cơ quan quản lý nhà nước chuyên ngành phải bảo đảm nguyên tắc không trùng lặp trong phân loại, đánh giá sự phù hợp và kiểm tra đối với hệ thống trí tuệ nhân tạo. Kết quả thử nghiệm, kiểm định, chứng nhận hợp quy hoặc kết quả đánh giá sự phù hợp đã được thực hiện theo pháp luật chuyên ngành, pháp luật về tiêu chuẩn và quy chuẩn kỹ thuật, pháp luật về chất lượng sản phẩm, hàng hóa được sử dụng để chứng minh việc đáp ứng yêu cầu tương ứng theo pháp luật về trí tuệ nhân tạo trong phạm vi nội dung đã được đánh giá hợp pháp, đầy đủ và còn hiệu lực thì tổ chức, cá nhân không phải thực hiện lại nội dung đó.
Bộ Khoa học và Công nghệ cung cấp công cụ hỗ trợ điện tử phục vụ việc tự đánh giá, phân loại hệ thống trí tuệ nhân tạo trên cơ sở các tiêu chí theo quy định. Việc sử dụng công cụ hỗ trợ điện tử có tính chất hỗ trợ, không bắt buộc và không làm phát sinh thủ tục phê duyệt hành chính hoặc nghĩa vụ khác ngoài quy định của Nghị định này.
Về phân loại hệ thống trí tuệ nhân tạo, Nghị định quy định nhà cung cấp có trách nhiệm tự thực hiện việc phân loại hệ thống trí tuệ nhân tạo theo quy định tại khoản 1 Điều 10 của Luật Trí tuệ nhân tạo trước khi đưa hệ thống vào sử dụng và chịu trách nhiệm trước pháp luật về tính chính xác, trung thực của kết quả phân loại.
Việc phân loại chỉ áp dụng đối với hệ thống trí tuệ nhân tạo; không áp dụng đối với mô hình trí tuệ nhân tạo, trừ trường hợp mô hình được sử dụng như một thành phần của hệ thống trí tuệ nhân tạo cụ thể.
Mức độ rủi ro của hệ thống trí tuệ nhân tạo được xác định như sau:
a) Hệ thống trí tuệ nhân tạo được phân loại rủi ro cao là các hệ thống thuộc Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao do Thủ tướng Chính phủ ban hành theo quy định tại khoản 4 Điều 13 của Luật Trí tuệ nhân tạo;
b) Hệ thống trí tuệ nhân tạo được phân loại có rủi ro trung bình là hệ thống không thuộc trường hợp quy định tại điểm a ở trên và thuộc các trường hợp quy định tại Điều 9 của Nghị định này;
c) Hệ thống trí tuệ nhân tạo được phân loại có rủi ro thấp là hệ thống không thuộc trường hợp quy định tại điểm a và điểm b ở trên.
Nghị định nêu rõ trường hợp bên triển khai sửa đổi, tích hợp, thay đổi chức năng hoặc mục đích sử dụng của hệ thống so với công bố ban đầu của nhà cung cấp làm phát sinh rủi ro mới hoặc rủi ro cao hơn, bên triển khai có trách nhiệm phối hợp với nhà cung cấp để rà soát, phân loại lại mức độ rủi ro.