Dự thảo Luật Trí tuệ nhân tạo sẽ lần đầu trình Quốc hội trong kỳ họp lần này, được kỳ vọng sẽ đặt nền móng pháp lý vững chắc để khuyến khích sáng tạo mà vẫn kiểm soát được rủi ro.
Điều gì cần được cân nhắc để luật vừa khả thi, vừa không kìm hãm bước tiến công nghệ?
Anh Nguyễn Hoàng Dương, lập trình viên của một ngân hàng tại Hà Nội đang sử dụng trí tuệ nhân tạo vào công việc hàng ngày. AI giúp năng suất lao động tăng vượt trội, nhưng anh Dương rất cẩn trọng khi sử dụng, đặc biệt trong môi trường đòi hỏi tính bảo mật tuyệt đối:
"Trong lĩnh vực của tôi gần như là chiếm khoảng 60 - 70%, còn lại, chúng tôi phải ngồi review xem hoạt động của AI như thế nào. Một đạo luật dành cho AI sẽ tránh việc ăn cắp chất xám của nhau và hạn chế việc để lộ thông tin cá nhân cũng như thông tin của tổ chức ra ngoài".
Theo ông Nguyễn Hữu Trung, CEO Công ty Cổ phần CyStack Việt Nam, quy định pháp luật về trí tuệ nhân tạo hiện chỉ có một chương trong Luật Công nghiệp công nghệ số năm 2025. Các quy định này mới chỉ dừng lại ở mức nguyên tắc và chưa đủ tạo ra một hành lang pháp lý toàn diện, đồng bộ.
Trong khi đó, thực tế sử dụng trí tuệ nhân tạo đang tồn tại nhiều rủi ro về đạo đức, thiên kiến thuật toán, xâm phạm quyền riêng tư và phân biệt đối xử trong AI.
Tuy nhiên, việc xây dựng một đạo luật dành riêng cho AI không hề đơn giản. Theo Luật sư Lê Xuân Lộc, Công ty Luật TNHH T&G, Việt Nam giống như nhiều quốc gia khác sẽ phải đối mặt với thách thức rất lớn từ tốc độ phát triển quá nhanh của AI, khiến cho việc thấu hiểu, đánh giá đúng cơ hội và nhận diện rủi ro trở nên khó khăn. Và trong cuộc đua AI toàn cầu, không quốc gia nào muốn chậm chân trong việc ban hành những quy định pháp lý có chất lượng.
Vì vậy, theo Luật sư Lê Xuân Lộc, ban soạn thảo cần lưu ý một số nguyên tắc pháp lý trong quá trình hoàn thiện dự thảo Luật Trí tuệ nhân tạo:
"Thứ nhất, tránh quá vội vàng và ôm đồm trong quá trình xây dựng pháp luật. Bởi với một lĩnh vực phát triển nhanh, chưa hoặc không ổn định như trí tuệ nhân tạo, nếu chúng ta mong muốn xây dựng những quy định mang tính cụ thể, chi tiết thì sẽ có rủi ro là những quy định này có thể trở nên không tương thích hoặc lạc hậu nhanh chóng.
Thứ hai, theo tôi là nên tham khảo ý kiến rộng rãi của các chủ thể tiêu biểu có liên quan. Từ những doanh nghiệp trong lĩnh vực đổi mới sáng tạo, những chuyên gia pháp lý trong và ngoài nước, đến những đối tượng có thể chịu ảnh hưởng lớn như những chủ sở hữu quyền sở hữu trí tuệ, các hiệp hội ngành nghề".
Đồng tình quan điểm này, chuyên gia an ninh mạng, TS. Đoàn Trung Sơn cho rằng, vấn đề then chốt trong việc xây dựng khung pháp lý là tìm kiếm sự cân bằng giữa quản lý và thúc đẩy đổi mới. Theo ông Sơn, Luật Trí tuệ nhân tạo cần được xây dựng trên ba định hướng chính:
Thứ nhất là, tính linh hoạt, tập trung vào các nguyên tắc bền vững như lấy con người làm trung tâm, tôn trọng phẩm giá, quyền riêng tư và đảm bảo an toàn, nh bạch, công bằng.
Thứ hai là, cơ chế quản lý rủi ro theo cấp độ, tương tự mô hình của châu Âu: kiểm soát nghiêm ngặt các hệ thống rủi ro cao như y tế, tài chính, giao thông; đồng thời tạo điều kiện cho các ứng dụng rủi ro thấp phát triển.
Thứ ba là, áp dụng “Sandbox” (hộp cát pháp lý), cho phép thử nghiệm công nghệ mới trong khuôn khổ giám sát để vừa thúc đẩy sáng tạo, vừa giúp cơ quan quản lý hiểu rõ rủi ro:
"Điều này cho phép doanh nghiệp và các viện nghiên cứu được ễn trừ tạm thời, hoặc thử nghiệm theo các điều kiện nới lỏng một số quy định pháp luật hiện hành. Thứ hai là cơ chế chấp nhận rủi ro và được quản trị, ễn trách nhiệm dân sự hoặc hành chính đối với các thiệt hại gây ra nếu chủ thể đã tuân thủ đầy đủ các quy trình thử nghiệm mà không có hành vi gian lận.
AI phát triển dựa trên dữ liệu và sức mạnh tính toán. Do đó, luật cần mở đường cho việc tiếp cận các nguồn lực này. Cần khuyến khích hoặc bắt buộc các cơ quan nhà nước chia sẻ dữ liệu chất lượng cao đã được ẩn danh hóa cho mục đích nghiên cứu và huấn luyện mô hình AI, đặc biệt là việc xây dựng các cơ sở dữ liệu lớn có chủ quyền của Việt Nam", TS. Đoàn Trung Sơn chia sẻ thêm.
Ngoài ra, theo TS. Đoàn Trung Sơn, cần có chính sách đồng bộ để thúc đẩy phát triển trí tuệ nhân như hỗ trợ hạ tầng tính toán hiệu năng cao, các ưu đãi về thuế và đất đai nhằm thu hút đầu tư, giúp các dự án AI quy mô lớn trong nước tiếp cận với chi phí hợp lý.
Đồng thời, cần ban hành chính sách thuế, mua sắm công và ưu đãi tài chính để tạo động lực cho viện nghiên cứu, doanh nghiệp khởi nghiệp. Nhà nước cũng nên áp dụng cơ chế mua sắm công ưu tiên cho sản phẩm AI trong nước, tạo thị trường ổn định.
Về sở hữu trí tuệ, cần có cách tiếp cận hiện đại, xác lập quyền cho sản phẩm do AI tạo ra và khung pháp lý nh bạch khi sử dụng dữ liệu có bản quyền để huấn luyện mô hình.
Về trách nhiệm khi một sự cố AI nghiêm trọng xảy ra, theo ông Nguyễn Hữu Trung, cần có cơ chế pháp lý đặc thù để tránh tình trạng đổ lỗi “vòng tròn”:
"Đầu tiên, các nhà phát triển phải chịu trách nhiệm về chất lượng, tính nh bạch và độ an toàn của thuật toán. Tiếp đến là những đơn vị triển khai các ứng dụng AI thì phải chịu trách nhiệm về cách áp dụng và giảm sát đầu ra. Và cuối cùng là những người dùng thì phải chịu trách nhiệm khi sử dụng AI sai mục đích và vượt phạm vi khuyến nghị của nhà phát triển.
Chúng ta cũng cần phải áp dụng các cơ chế như là buộc kiểm tra AI định kỳ; đăng ký và công bố hồ sơ rủi ro AI cho các hệ thống lớn như châu Âu đang làm; có một cơ chế điều tra các sự cố do AI gây ra. Ngoài ra, tôi nghĩ là cũng có thể bổ sung một số quy định về bảo hiểm trách nhiệm tương tự nhiều quốc gia đã làm cho các sản phẩm như xe tự lái".
Trí tuệ nhân tạo (AI) đang mở ra kỷ nguyên sáng tạo mới, nơi mỗi ý tưởng đều có thể biến thành sản phẩm trong tích tắc.
Song, càng mạnh mẽ thì AI càng đòi hỏi con người phải tỉnh táo. Luật Trí tuệ nhân tạo vì thế không chỉ để kiểm soát rủi ro, mà quan trọng hơn là tạo hành lang để công nghệ phát triển an toàn, nhân văn và bền vững.
Một đạo luật với tinh thần khuyến khích cái mới, nhưng không để xã hội trả giá cho sự chủ quan trước tương lai.
Góc nhìn của VOV Giao thông qua bài bình luận: Luật Trí tuệ nhân tạo, “phanh mềm” cho cỗ xe siêu tốc
AI đang tạo ra năng suất chưa từng có: doanh nghiệp dùng AI để tối ưu quy trình sản xuất, ngành y dùng AI chẩn đoán bệnh sớm, giáo dục tận dụng AI để cá nhân hóa việc học,… Nhưng chính những tiện ích ấy lại đi kèm rủi ro khổng lồ: một mô hình học sâu có thể “nuốt” hàng triệu dữ liệu cá nhân, một công cụ tạo ảnh có thể dựng ra khuôn mặt giả, giọng nói giả,… Nếu không có khung pháp lý rõ ràng thì “trí tuệ” của máy móc sẽ bị lợi dụng và vượt xa bàn tay kiểm soát, chịu trách nhiệm của con người.
Nhiều quốc gia đã sớm hành động. Liên nh châu Âu thông qua đạo luật AI để phân loại rủi ro, Mỹ xây dựng khung đạo đức cho các hệ thống học máy, còn Nhật Bản cho phép thử nghiệm có kiểm soát để thúc đẩy sáng tạo. Việt Nam, với dự thảo luật lần này, đang đứng trước cơ hội định hình hướng đi riêng, vừa bắt nhịp thế giới, vừa phù hợp thực tiễn trong nước.
Muốn làm được điều đó, Luật Trí tuệ nhân tạo cần được nhìn nhận như một cấu trúc nền linh hoạt. Nếu quá chặt tay thì luật sẽ trở thành rào cản, khiến doanh nghiệp, đặc biệt là nhà đầu tư nước ngoài e dè, nhà sáng chế mất động lực. Nhưng nếu quá nới lỏng thì xã hội sẽ đối diện làn sóng hỗn loạn dữ liệu, tin giả và vi phạm quyền riêng tư.
Để cấu trúc ấy đủ vững để bảo vệ, nhưng đủ mở để khơi thông sáng tạo, thì việc xây dựng nguyên tắc phát triển có trách nhiệm cần trở thành trọng tâm. Khi mọi hệ thống AI đều có “dấu vân tay” pháp lý (tức là cơ chế truy vết, nh bạch nguồn dữ liệu và quy trình vận hành, để biết AI được huấn luyện từ đâu và theo chuẩn nào) thì trách nhiệm pháp lý và đạo đức sẽ trở nên rõ ràng.
Về trách nhiệm pháp lý, luật cần đặt ra những “ranh giới đỏ”, như cấm sử dụng AI vào mục đích lừa đảo, thao túng nhận thức hay xâm phạm quyền con người.
Mọi hệ thống AI đều phải có “người giám hộ” để trí tuệ nhân tạo không trở thành “trí tuệ vô chủ”. Luật cần xác định rõ vai trò của từng chủ thể trong vòng đời công nghệ: người phát triển chịu trách nhiệm về thiết kế, doanh nghiệp về triển khai, và người sử dụng về vận hành. Khi trách nhiệm được chia theo chuỗi thì mọi mắt xích đều có nghĩa vụ kiểm soát, giúp ngăn ngừa rủi ro ngay từ gốc thay vì phải truy tìm “thủ phạm” khi rủi ro xảy ra. Đây không chỉ là cách bảo vệ xã hội, mà còn là cách bảo vệ những nhà sáng tạo chân chính.
Cơ chế chia sẻ trách nhiệm cũng rất cần thiết nếu AI được tích hợp vào sản phẩm thương mại. Doanh nghiệp phải chứng nh đã kiểm định rủi ro, thử nghiệm đạo đức và có quy trình phản ứng khi xảy ra sự cố.
Song hành trách nhiệm pháp lý phải là cơ chế trao quyền thử nghiệm có kiểm soát để luật trở thành “bệ phóng” thay vì là rào cản. Việc thiết lập các “vườn ươm” công nghệ (sandbox) có thể cho phép doanh nghiệp, viện nghiên cứu hay startup được “thử và sai” dưới sự giám sát của cơ quan chức năng. Mô hình này cũng giúp nhà quản lý có thêm dữ liệu thực tiễn để kịp thời điều chỉnh, thay vì chạy theo công nghệ.
Một trụ cột khác là cơ chế hợp tác và quản trị dữ liệu có trách nhiệm. Dữ liệu là “nhiên liệu” của AI, nhưng cũng là tài sản nhạy cảm của xã hội. Vì vậy, cần khung pháp lý bảo đảm việc chia sẻ dữ liệu giữa nhà nước - doanh nghiệp - người dân trên cơ sở đồng thuận, nh bạch và có mục đích cụ thể. Khi dữ liệu được bảo vệ đúng nghĩa thì niềm tin của người dân sẽ trở thành “năng lượng sạch” giúp AI phát triển bền vững.
Không thể thiếu trong cấu trúc này là đạo đức công nghệ. Luật có thể không theo kịp mọi tiến bộ, nhưng có thể đặt ra giới hạn đạo đức để dẫn đường với nguyên tắc xuyên suốt là: tôn trọng quyền riêng tư, không tạo định kiến, không xuyên tạc sự thật, và không tước đi cơ hội lao động chính đáng của con người.
Đi cùng với đó là giáo dục đạo đức công nghệ cho các nhà phát triển và người sử dụng. Thế hệ kỹ sư, lập trình viên mới cần hiểu rằng họ không chỉ viết mã lệnh, mà đang kiến tạo tương lai xã hội. Đó mới là nền tảng bền vững nhất cho kỷ nguyên AI.
Làm luật cho một công nghệ đang biến đổi từng ngày không dễ. Nó đòi hỏi dũng khí để đối mặt với cái mới và tầm nhìn để không sợ những điều chưa biết. Luật không thể dự đoán mọi kịch bản tương lai, nhưng có thể định hướng hành động: khuyến khích sáng tạo, bảo vệ con người, và đặt đạo đức làm trung tâm.
Nếu được xây dựng với tinh thần cởi mở và nhân văn, Luật Trí tuệ nhân tạo sẽ là “chiếc phanh mềm” giữ cho cỗ xe công nghệ không lao khỏi đường ray đạo đức và pháp lý, nơi công nghệ phát triển để phục vụ con người, chứ không để con người chạy theo công nghệ. Từ nền tảng ấy, Việt Nam có thể tự tin bước vào kỷ nguyên AI với khát vọng kiến tạo tương lai bằng trí tuệ của chính mình.