Việt Nam đang tiến một bước lớn trong việc định hình nền kinh tế số thông qua hai diễn biến lập pháp quan trọng: Dự Thảo Luật Trí Tuệ Nhân Tạo (“Dự Thảo Luật AI”) và Luật Công Nghiệp Công Nghệ Số Số 71/2025/QH15 (“Luật Công Nghiệp Công Nghệ Số”). Luật Công Nghiệp Công Nghệ Số sẽ có hiệu lực từ ngày 01 tháng 01 năm 2026. Dự Thảo Luật AI dự kiến được xem xét tại kỳ họp lần này, kéo dài đến ngày 11 tháng 12 năm 2025. Nếu Dự Thảo Luật AI được thông qua trong kỳ họp này, thời điểm có hiệu lực có thể cũng là ngày 01 tháng 01 năm 2026.
Cùng nhau, hai văn bản này hướng đến xây dựng một nền tảng có cấu trúc nhưng khuyến khích đổi mới đối với hệ sinh thái AI đang hình thành của Việt Nam. Chính phủ có vẻ chú trọng vào mô hình quản lý dựa trên rủi ro, hài hòa giữa thúc đẩy sự phát triển công nghệ với bảo đảm quyền cá nhân, tính minh bạch và lợi ích quốc gia.
Triển khai theo giai đoạn:
Dự thảo Luật AI đưa ra lộ trình triển khai theo từng giai đoạn nhằm tạo điều kiện để doanh nghiệp có đủ thời gian thích ứng với các yêu cầu quản lý mới. Điều đáng chú ý là việc điều chỉnh được định hướng dựa trên mức độ rủi ro được đánh giá.
- Ngày 01 tháng 01 năm 2026: Bắt đầu thiết lập hạ tầng quản lý và khung triển khai ban đầu. Giai đoạn này tập trung vào việc xây dựng Cơ Sở Dữ Liệu AI Quốc Gia, chỉ định các cơ quan quản lý và ban hành hướng dẫn chi tiết.
- Ngày 01 tháng 07 năm 2027: Các nghĩa vụ đầy đủ đối với hệ thống AI rủi ro cao bắt đầu có hiệu lực. Từ thời điểm này, tất cả các hệ thống AI rủi ro cao mới phải hoàn thành đánh giá sự phù hợp và thủ tục đăng ký trước khi được triển khai, tức 18 tháng sau ngày luật có hiệu lực.
- Ngày 01 tháng 07 năm 2029: Các hệ thống AI rủi ro cao hiện hữu (đang vận hành) phải bắt đầu quy trình chuyển đổi. Những hệ thống này có thời hạn 24 tháng để hoàn thành đăng ký và yêu cầu về sự phù hợp.
Phương pháp triển khai theo từng giai đoạn này nhằm giúp doanh nghiệp có đủ thời gian chuẩn bị, đánh giá hệ thống AI, xây dựng cơ chế tuân thủ và hoàn tất các thủ tục đăng ký cần thiết mà không làm gián đoạn hoạt động đang diễn ra.
Khung quản lý dựa trên mức độ rủi ro: Bốn cấp độ rủi ro của AI
Dự Thảo Luật AI của Việt Nam phân loại hệ thống AI thành bốn cấp độ rủi ro: rủi ro không chấp nhận được, rủi ro cao, rủi ro trung bình và rủi ro thấp, với mức độ giám sát quản lý tương ứng. Cấu trúc này có nét tương đồng với các cách tiếp cận quốc tế, như Đạo Luật AI của Liên Minh Châu Âu, nhưng được điều chỉnh phù hợp với bối cảnh trong nước.
- Rủi ro không chấp nhận được: Các hệ thống AI bị cho là đe dọa quyền con người, an toàn cá nhân hoặc trật tự xã hội sẽ bị cấm hoàn toàn. Cụ thể, Dự Thảo Luật AI nghiêm cấm: AI thao túng nhận thức hoặc hành vi con người nhằm mục đích gây hại; hệ thống chấm điểm tín nhiệm xã hội dẫn đến phân biệt đối xử không công bằng; hệ thống nhận dạng sinh trắc học từ xa theo thời gian thực ở nơi công cộng phục vụ thực thi pháp luật (trừ các trường hợp đặc biệt được phê duyệt liên quan tội phạm nghiêm trọng); cơ sở dữ liệu nhận diện khuôn mặt quy mô lớn thu thập từ dữ liệu tràn lan không chọn lọc; và deepfake hoặc nội dung do AI tạo ra gây đe dọa an ninh quốc gia, trật tự công cộng hoặc ổn định xã hội.
- Rủi ro cao: Các ứng dụng AI trong những lĩnh vực nhạy cảm như y tế, tài chính, giáo dục, giao thông, tuyển dụng, tư pháp và năng lượng phải tuân thủ các nghĩa vụ khắt khe về chất lượng dữ liệu, quản trị rủi ro, giám sát của con người và đăng ký trước trong cơ sở dữ liệu AI quốc gia.
- Rủi ro trung bình: Các hệ thống tương tác trực tiếp với người dùng hoặc tạo nội dung phải được nhận diện rõ ràng là công cụ AI, đảm bảo người dùng biết khi họ đang tương tác với hệ thống tự động.
- Rủi ro thấp: Những hệ thống có tác động tối thiểu được khuyến khích áp dụng các hướng dẫn thực hành tốt và nguyên tắc minh bạch mang tính tự nguyện.
Khung phân cấp này giúp cơ quan quản lý tập trung giám sát tại các khu vực có rủi ro cao nhất, đồng thời duy trì rào cản gia nhập ở mức hợp lý cho các hoạt động đổi mới có rủi ro thấp.
Tác động đối với nhà đầu tư
Đối với các nhà đầu tư đang đánh giá thị trường AI tại Việt Nam, hệ thống phân loại rủi ro trở thành yếu tố trọng tâm trong quá trình thẩm định. Mỗi cấp độ rủi ro kéo theo những hệ quả khác nhau về vận hành và tuân thủ:
- Chi phí tuân thủ cao hơn trong các lĩnh vực rủi ro cao: Đầu tư vào AI trong lĩnh vực y tế, công nghệ tài chính, giao thông, tuyển dụng, tư pháp, năng lượng hoặc hạ tầng trọng yếu sẽ phát sinh chi phí lớn ở cả giai đoạn đầu và trong quá trình vận hành. Điều này bao gồm chi phí đánh giá sự phù hợp, thủ tục đăng ký, yêu cầu hồ sơ, thiết lập cơ chế giám sát con người, hệ thống báo cáo sự cố và nghĩa vụ giám sát sau triển khai. Việc vừa phải xin phê duyệt trước, vừa phải duy trì tuân thủ liên tục biến hạ tầng quản trị thành yếu tố chi phí đáng kể.
- Rào cản gia nhập thị trường: Các dự án phụ thuộc vào công nghệ bị hạn chế hoặc cấm (như giám sát sinh trắc học không được cấp phép) có thể đối mặt với rào cản pháp lý tuyệt đối.
- Quản trị và trách nhiệm giải trình: Khung pháp lý đặt trách nhiệm lên tổ chức và cá nhân giám sát hệ thống AI, do đó quản trị doanh nghiệp và khả năng kiểm toán trở thành ưu tiên hàng đầu.
- Minh bạch là lợi thế cạnh tranh: Doanh nghiệp phát triển giải pháp AI có khả năng giải thích rõ ràng và minh bạch sẽ dễ tạo dựng niềm tin người dùng và sự tin cậy từ cơ quan quản lý, từ đó nâng cao lợi thế dài hạn.
- Nghĩa vụ xuyên biên giới: Nhà cung cấp nước ngoài triển khai dịch vụ AI có ảnh hưởng đến người dùng tại Việt Nam có thể cần chỉ định đại diện địa phương và tuân thủ yêu cầu đăng ký cũng như xử lý dữ liệu.
- Lập kế hoạch tuân thủ theo giai đoạn: Khoảng thời gian 18 tháng trước khi nghĩa vụ đầy đủ đối với hệ thống rủi ro cao có hiệu lực (đến ngày 01/07/2027) tạo cơ hội chiến lược cho việc chuẩn bị tuân thủ sớm. Nhà đầu tư nên tính đến thời gian cần thiết cho đánh giá sự phù hợp, đăng ký cơ sở dữ liệu và chỉ định đại diện địa phương khi xây dựng kế hoạch gia nhập thị trường. Các hệ thống hiện hữu được hưởng thời gian chuyển đổi dài hơn, với nghĩa vụ đầy đủ chỉ áp dụng từ tháng 07/2029.
Kỳ vọng vận hành đối với các nhà phát triển và người dùng AI
Các tổ chức phát triển hoặc triển khai công nghệ AI tại Việt Nam sẽ được kỳ vọng tích hợp quản trị và nguyên tắc đạo đức vào mọi giai đoạn trong vòng đời công nghệ:
- Lập bản đồ rủi ro toàn diện: Xác định vị trí của từng hệ thống AI trong mô hình bốn cấp độ rủi ro và duy trì hồ sơ đánh giá cùng kế hoạch giảm thiểu rủi ro.
- Nâng cao nhận thức người dùng: Đảm bảo truyền đạt rõ ràng khi người dùng tương tác với công cụ AI, bao gồm yêu cầu gắn nhãn và công khai thông tin sử dụng.
- Giám sát của con người: Duy trì quyền quyết định của con người đối với các hệ thống có ảnh hưởng lớn về mặt xã hội hoặc kinh tế.
- Phù hợp với quy định bảo vệ dữ liệu: Đảm bảo hoạt động AI tuân thủ khung pháp lý hiện hành về an ninh mạng và bảo vệ dữ liệu cá nhân của Việt Nam.
- Đăng ký và xin phê duyệt trước: Các hệ thống AI rủi ro cao phải thực hiện hai bước tuân thủ trước khi triển khai: (1) xin phê duyệt trước từ cơ quan nhà nước thông qua đánh giá sự phù hợp, nhằm kiểm tra mức độ đáp ứng tiêu chuẩn an toàn, minh bạch và quản lý rủi ro; và (2) đăng ký vào Cơ sở dữ liệu AI quốc gia để phục vụ mục đích giám sát liên tục. Sau khi triển khai, các hệ thống này vẫn phải thực hiện nghĩa vụ liên tục như báo cáo sự cố, giám sát sau thương mại, duy trì cơ chế giám sát bởi con người và chịu kiểm tra định kỳ từ cơ quan quản lý.
- Nghĩa vụ đối với nhà cung cấp nước ngoài: Doanh nghiệp quốc tế cung cấp dịch vụ AI có ảnh hưởng đến người dùng tại Việt Nam phải chỉ định đại diện pháp lý trong nước. Đại diện này đóng vai trò là đầu mối tuân thủ và kết nối với cơ quan quản lý, chịu trách nhiệm đảm bảo nhà cung cấp nước ngoài thực hiện đúng các yêu cầu về đăng ký, báo cáo và hợp tác theo luật Việt Nam.
Cơ quan quản lý và cấu trúc giám sát
Khung quản trị AI của Việt Nam vận hành theo mô hình quản lý tinh gọn, được định hình sau đợt tái cơ cấu lớn của bộ máy nhà nước vào đầu năm 2025:
- Ủy Ban Quốc Gia về Trí Tuệ Nhân Tạo: Theo Dự Thảo Luật AI, một Ủy Ban Quốc Gia cấp cao do Thủ Tướng Chính Phủ đứng đầu sẽ chịu trách nhiệm định hướng chiến lược phát triển AI, phê duyệt các chương trình/dự án AI quy mô lớn và xây dựng khung quản lý đối với các hệ thống AI có mức độ tự động hóa cao. Ủy ban này đóng vai trò điều phối cấp vĩ mô giữa các cơ quan nhà nước trong các vấn đề liên quan đến chính sách AI.
- Bộ Khoa Học và Công Nghệ (KH&CN): Từ tháng 2–3/2025, Việt Nam đã hợp nhất chức năng công nghệ số và khoa học – công nghệ thông qua việc sáp nhập Bộ Thông tin và Truyền thông vào Bộ KH&CN. Bộ KH&CN mở rộng hiện là cơ quan đầu mối chịu trách nhiệm quản lý AI, giám sát công nghệ số và điều phối chính sách khoa học – công nghệ. Bộ KH&CN là đơn vị soạn thảo Luật AI và sẽ là cơ quan chính triển khai tiêu chuẩn, quy chuẩn kỹ thuật và giám sát tuân thủ trong giai đoạn thực thi.
Các tổ chức triển khai AI tại Việt Nam có thể kỳ vọng Bộ KH&CN sẽ là cơ quan chủ quản trực tiếp trong các thủ tục đăng ký, xin chấp thuận, xây dựng tiêu chuẩn và các vấn đề liên quan đến tuân thủ. Cơ chế vận hành cụ thể cho quy trình đánh giá sự phù hợp và quản lý cơ sở dữ liệu sẽ được quy định chi tiết hơn trong văn bản hướng dẫn thi hành sau khi Luật AI chính thức ban hành.
Ưu đãi và cơ hội theo Luật Công Nghiệp Công Nghệ Số
Mặc dù việc tuân thủ luật pháp sẽ đòi hỏi kế hoạch và đầu tư phù hợp, gói pháp lý mới của Việt Nam cũng mở ra nhiều ưu đãi đáng kể:
- Ưu đãi thuế và sử dụng đất: Luật Công Nghiệp Công Nghệ Số ưu tiên phát triển AI, hạ tầng số và dự án bán dẫn thông qua ưu đãi thuế, tiếp cận đất đai và nguồn vốn.
- Sandbox đổi mới sáng tạo: Các chương trình thí điểm cho phép doanh nghiệp thử nghiệm ứng dụng AI mới trong môi trường quản lý có kiểm soát trước khi triển khai trên diện rộng.
- Tiệm cận tiêu chuẩn quốc tế: Việc áp dụng mô hình quản lý dựa trên rủi ro tương đồng với EU và nhiều quốc gia khác giúp Việt Nam trở nên hấp dẫn hơn đối với các nhà đầu tư đa quốc gia tìm kiếm sự thống nhất pháp lý giữa các thị trường.
- Uy tín từ thực hành AI có đạo đức: Những doanh nghiệp tiên phong áp dụng AI minh bạch và có trách nhiệm sẽ sở hữu lợi thế dẫn đầu, khi niềm tin người dùng và khả năng tuân thủ trở thành yếu tố cạnh tranh quan trọng.
Lộ trình tuân thủ đối với hệ thống AI rủi ro cao
Các tổ chức triển khai AI rủi ro cao tại Việt Nam cần đi theo một quy trình tuân thủ có cấu trúc:
- Giai đoạn tiền triển khai: Đánh giá rủi ro nội bộ nhằm xác định hệ thống có thuộc nhóm rủi ro cao theo luật hay không. Thiết kế hệ thống với các yếu tố tuân thủ tích hợp ngay từ đầu, bao gồm khả năng giải thích, cơ chế giám sát của con người và quy trình quản trị dữ liệu.
- Đánh giá sự phù hợp: Nộp hồ sơ yêu cầu cơ quan nhà nước đánh giá để chứng minh hệ thống đáp ứng tiêu chuẩn kỹ thuật, yêu cầu an toàn và biện pháp giảm thiểu rủi ro. Đánh giá này phải hoàn tất trước khi triển khai.
- Đăng ký cơ sở dữ liệu: Đăng ký hệ thống đã được phê duyệt vào Cơ sở dữ liệu AI Quốc gia, cung cấp thông tin chi tiết về mục đích, thông số kỹ thuật, phân loại rủi ro và đơn vị chịu trách nhiệm.
- Tuân thủ liên tục: Duy trì việc tuân thủ các nghĩa vụ gồm báo cáo sự cố (đặc biệt khi có lỗi hệ thống hoặc gây hại ngoài dự kiến), giám sát sau triển khai, rà soát định kỳ và hợp tác với cơ quan quản lý khi có kiểm tra.
- Đại diện địa phương: Nhà cung cấp nước ngoài phải đảm bảo đại diện tại Việt Nam được trao quyền xử lý mọi vấn đề tuân thủ và phản hồi yêu cầu từ cơ quan quản lý.
Phương pháp có cấu trúc này biến tuân thủ pháp lý từ một yêu cầu xử lý một lần thành một cam kết vận hành liên tục.
Cân bằng giữa rủi ro và cơ hội
Khung quản trị AI sắp được ban hành của Việt Nam, được xây dựng dựa trên Luật Công Nghiệp Công Nghệ Số và Dự Thảo Luật AI hiện tại, đang định vị Việt Nam trở thành một trong những quốc gia đi đầu trong khu vực về quản lý nền kinh tế số. Những nhà đầu tư và đơn vị vận hành tham gia thị trường với hệ thống tuân thủ vững chắc, thực hành dữ liệu minh bạch và chủ động hợp tác với cơ quan quản lý sẽ là những bên hưởng lợi nhiều nhất từ quá trình chuyển đổi này.
Mặc dù luật đặt ra các tầng giám sát mới, nhưng đồng thời cũng thiết lập các quy tắc rõ ràng nhằm thúc đẩy đổi mới bền vững. Với những doanh nghiệp sẵn sàng thích ứng, Việt Nam mang tới một môi trường đang phát triển nhanh chóng, dựa trên pháp lý, nơi đầu tư và triển khai AI có thể tăng trưởng một cách có trách nhiệm.

