Kiểm soát AI, những lỗ hổng cần vá ngay

Trong khi các quốc gia trên thế giới đang gồng mình kiểm soát những rủi ro từ AI, thì Việt Nam cũng đang đứng trước một bài toán hết sức cấp thiết: Làm thế nào để phát huy sức mạnh công nghệ mà không bị cuốn vào vòng xoáy của những hệ lụy khó lường?

AI đang định hình lại thế giới với một tốc độ chóng mặt, mang theo những cơ hội đột phá lẫn những hiểm họa khôn lường. Trong khi các quốc gia trên thế giới đang gồng mình kiểm soát những rủi ro từ AI, thì Việt Nam cũng đang đứng trước một bài toán hết sức cấp thiết: Làm thế nào để phát huy sức mạnh công nghệ mà không bị cuốn vào vòng xoáy của những hệ lụy khó lường?

Về vấn đề này, PV VOV Giao thông đã có cuộc trao đổi với ông Nguyễn Hữu Trung, CEO Công ty Cổ phần CyStack Việt Nam.

 

(Ảnh nh họa: Forbes)

PV: Theo ông, đâu là "điểm mù" và lỗ hổng pháp lý lớn nhất trong quy định hiện hành về AI tại Việt Nam?

Ông Nguyễn Hữu Trung: Chúng ta biết là hiện nay, Việt Nam mới chỉ có Luật công nghiệp công nghệ số từ năm 2025, trong đó có một chương riêng về trí tuệ nhân tạo. Tuy nhiên, các quy định này mới chỉ dừng lại ở mức nguyên tắc và chưa đủ sức tạo hành một hành lang pháp lý toàn diện và đồng bộ. Ở góc nhìn của tôi, lỗ hổng lớn nhất hiện nay bao gồm việc rủi ro về đạo đức, thiên kiến thuật toán, xâm phạm quyền riêng tư và phân biệt đối xử trong AI.

Bên cạnh đó, các văn bản pháp luật về sở hữu trí tuệ của nhiều quốc gia trên thế giới thì chưa công nhận AI là chủ thể sở hữu của việc phát sinh sự sở hữu trí tuệ. Nhưng sản phẩm do AI tạo ra không được bảo hộ quyền sở hữu trí tuệ. Và một điểm vô cùng quan trọng nữa đó là hiện tại cũng chưa có cơ chế để xử lý trách nhiệm pháp lý khi AI gây ra các sự cố nghiêm trọng.

PV: Để bắt kịp cuộc đua AI, Việt Nam nên có những cơ chế ra sao để vừa khuyến khích đổi mới sáng tạo, đồng thời giữ được sự an toàn? Đề xuất cụ thể của ông là gì?

Ông Nguyễn Hữu Trung: Theo tôi, Việt Nam nên chọn chiến lược Sandbox, tức là kiểm soát theo cấp độ rủi ro, chứ không nên thả cửa hay là siết chặt hoàn toàn. Cụ thể thì trong giai đoạn đầu chúng ta nên mở một Sandbox cho doanh nghiệp thử nghiệm AI trong các lĩnh vực ít rủi ro như là marketing, như là nông nghiệp. Và nhà nước có thể quan sát và ghi nhận rủi ro rồi điều chỉnh dần.

Sau đấy thì đến giai đoạn trưởng thành, chúng ta có thể ban hành các tiêu chuẩn, các quy tắc đạo đức tương tự như cách mà Châu Âu đang làm với các lĩnh vực rủi ro cao như là y tế, tài chính. Và chúng ta cần có phân loại các hệ thống AI theo mức rủi ro từ thấp đến cao và một số hoạt động có thể gọi là bị cấm.

Với sự phát triển vũ bão của trí tuệ nhân tạo, xã hội có thể mất phương hướng nếu AI bị sử dụng bừa bãi và thiếu kiểm soát (Ảnh nh họa)

PV: Nếu một sự cố AI nghiêm trọng xảy ra, ai là người phải chịu trách nhiệm? Cần có cơ chế pháp lý đặc thù nào ngay bây giờ để tránh tình trạng đổ lỗi vòng tròn, thưa ông?

Ông Nguyễn Hữu Trung: Đây là một câu hỏi mà tôi nghĩ các quốc gia phát triển như là Châu Âu và Mỹ cũng đang tranh luận. Theo tôi, Việt Nam nên xây dựng nguyên tắc là trách nhiệm thì phải phân tầng. Đầu tiê, vai trò của các nhà phát triển các mô hình thuật toán thì phải chịu trách nhiệm về chất lượng, tính nh bạch và độ an toàn của thuật toán này. Tiếp đến là những đơn vị triển khai các ứng dụng AI thì phải chịu trách nhiệm về cách áp dụng và giảm sát đầu ra.

Và cuối cùng là những người dùng trực tiếp của các sản phẩm AI này thì phải chịu trách nhiệm khi sử dụng AI sai mục đích và vượt phạm vi khuyến nghị của nhà phát triển và nhà triển khai.

Chúng ta cũng cần phải áp dụng các cơ chế để đảm bảo và sử dụng AI một cách an toàn trong đời sống như là bắt buộc kiểm tra AI định kỳ. Bằng cách này, chúng ta có thể đảm bảo là các mô hình và các hệ thống AI không có một sự thiên vị cũng như là dữ liệu cá nhân người dùng được đảm bảo.

Điều thứ hai là chúng ta phải đăng ký và công bố hồ sơ rủi ro AI cho các hệ thống lớn. Điều này thì ở Châu Âu họ đang làm. Tiếp theo là có một cơ chế điều tra các sự cố do AI gây ra. Ngoài ra, tôi nghĩ là cũng có thể bổ sung một số quy định về bảo hiểm trách nhiệm trong các sản phẩm AI, tương tự như cách mà nhiều quốc gia làm cho các sản phẩm như là xe tự lái.

PV: Xin cảm ơn ông