Luật Trí tuệ nhân tạo vì thế không chỉ để kiểm soát rủi ro, mà quan trọng hơn là tạo hành lang để công nghệ phát triển an toàn, nhân văn và bền vững.
Một đạo luật với tinh thần khuyến khích cái mới, nhưng không để xã hội trả giá cho sự chủ quan trước tương lai.
AI đang tạo ra năng suất chưa từng có: doanh nghiệp dùng AI để tối ưu quy trình sản xuất, ngành y dùng AI chẩn đoán bệnh sớm, giáo dục tận dụng AI để cá nhân hóa việc học,…
Nhưng chính những tiện ích ấy lại đi kèm rủi ro khổng lồ: một mô hình học sâu có thể “nuốt” hàng triệu dữ liệu cá nhân, một công cụ tạo ảnh có thể dựng ra khuôn mặt giả, giọng nói giả,…
Nếu không có khung pháp lý rõ ràng thì “trí tuệ” của máy móc sẽ bị lợi dụng và vượt xa bàn tay kiểm soát, chịu trách nhiệm của con người.
Nhiều quốc gia đã sớm hành động. Liên nh châu Âu thông qua đạo luật AI để phân loại rủi ro, Mỹ xây dựng khung đạo đức cho các hệ thống học máy, còn Nhật Bản cho phép thử nghiệm có kiểm soát để thúc đẩy sáng tạo.
Việt Nam, với dự thảo luật lần này, đang đứng trước cơ hội định hình hướng đi riêng, vừa bắt nhịp thế giới, vừa phù hợp thực tiễn trong nước.
Muốn làm được điều đó, Luật Trí tuệ nhân tạo cần được nhìn nhận như một cấu trúc nền linh hoạt. Nếu quá chặt tay thì luật sẽ trở thành rào cản, khiến doanh nghiệp, đặc biệt là nhà đầu tư nước ngoài e dè, nhà sáng chế mất động lực. Nhưng nếu quá nới lỏng thì xã hội sẽ đối diện làn sóng hỗn loạn dữ liệu, tin giả và vi phạm quyền riêng tư.
Để cấu trúc ấy đủ vững để bảo vệ, nhưng đủ mở để khơi thông sáng tạo, thì việc xây dựng nguyên tắc phát triển có trách nhiệm cần trở thành trọng tâm. Khi mọi hệ thống AI đều có “dấu vân tay” pháp lý (tức là cơ chế truy vết, nh bạch nguồn dữ liệu và quy trình vận hành, để biết AI được huấn luyện từ đâu và theo chuẩn nào) thì trách nhiệm pháp lý và đạo đức sẽ trở nên rõ ràng.
Về trách nhiệm pháp lý, luật cần đặt ra những “ranh giới đỏ”, như cấm sử dụng AI vào mục đích lừa đảo, thao túng nhận thức hay xâm phạm quyền con người.
Mọi hệ thống AI đều phải có “người giám hộ” để trí tuệ nhân tạo không trở thành “trí tuệ vô chủ”. Luật cần xác định rõ vai trò của từng chủ thể trong vòng đời công nghệ: người phát triển chịu trách nhiệm về thiết kế, doanh nghiệp về triển khai, và người sử dụng về vận hành.
Khi trách nhiệm được chia theo chuỗi thì mọi mắt xích đều có nghĩa vụ kiểm soát, giúp ngăn ngừa rủi ro ngay từ gốc thay vì phải truy tìm “thủ phạm” khi rủi ro xảy ra. Đây không chỉ là cách bảo vệ xã hội, mà còn là cách bảo vệ những nhà sáng tạo chân chính.
Cơ chế chia sẻ trách nhiệm cũng rất cần thiết nếu AI được tích hợp vào sản phẩm thương mại. Doanh nghiệp phải chứng nh đã kiểm định rủi ro, thử nghiệm đạo đức và có quy trình phản ứng khi xảy ra sự cố.
Song hành trách nhiệm pháp lý phải là cơ chế trao quyền thử nghiệm có kiểm soát để luật trở thành “bệ phóng” thay vì là rào cản. Việc thiết lập các “vườn ươm” công nghệ (sandbox) có thể cho phép doanh nghiệp, viện nghiên cứu hay startup được “thử và sai” dưới sự giám sát của cơ quan chức năng. Mô hình này cũng giúp nhà quản lý có thêm dữ liệu thực tiễn để kịp thời điều chỉnh, thay vì chạy theo công nghệ.
Một trụ cột khác là cơ chế hợp tác và quản trị dữ liệu có trách nhiệm. Dữ liệu là “nhiên liệu” của AI, nhưng cũng là tài sản nhạy cảm của xã hội. Vì vậy, cần khung pháp lý bảo đảm việc chia sẻ dữ liệu giữa nhà nước - doanh nghiệp - người dân trên cơ sở đồng thuận, nh bạch và có mục đích cụ thể. Khi dữ liệu được bảo vệ đúng nghĩa thì niềm tin của người dân sẽ trở thành “năng lượng sạch” giúp AI phát triển bền vững.
Không thể thiếu trong cấu trúc này là đạo đức công nghệ. Luật có thể không theo kịp mọi tiến bộ, nhưng có thể đặt ra giới hạn đạo đức để dẫn đường với nguyên tắc xuyên suốt là: tôn trọng quyền riêng tư, không tạo định kiến, không xuyên tạc sự thật, và không tước đi cơ hội lao động chính đáng của con người.
Đi cùng với đó là giáo dục đạo đức công nghệ cho các nhà phát triển và người sử dụng. Thế hệ kỹ sư, lập trình viên mới cần hiểu rằng họ không chỉ viết mã lệnh, mà đang kiến tạo tương lai xã hội. Đó mới là nền tảng bền vững nhất cho kỷ nguyên AI.
Làm luật cho một công nghệ đang biến đổi từng ngày không dễ. Nó đòi hỏi dũng khí để đối mặt với cái mới và tầm nhìn để không sợ những điều chưa biết. Luật không thể dự đoán mọi kịch bản tương lai, nhưng có thể định hướng hành động: khuyến khích sáng tạo, bảo vệ con người, và đặt đạo đức làm trung tâm.
Nếu được xây dựng với tinh thần cởi mở và nhân văn, Luật Trí tuệ nhân tạo sẽ là “chiếc phanh mềm” giữ cho cỗ xe công nghệ không lao khỏi đường ray đạo đức và pháp lý, nơi công nghệ phát triển để phục vụ con người, chứ không để con người chạy theo công nghệ. Từ nền tảng ấy, Việt Nam có thể tự tin bước vào kỷ nguyên AI với khát vọng kiến tạo tương lai bằng trí tuệ của chính mình.