21/11/2025 - 18:19

Thảo luận về dự án Luật Trí tuệ nhân tạo: Đại biểu Quốc hội TP Cần Thơ phân tích sâu yêu cầu đối với khuôn khổ pháp lý, cảnh báo rủi ro đạo đức… 

Tiếp tục chương trình Kỳ họp thứ 10, sáng 21-11, Quốc hội thảo luận tại tổ về dự án Luật Trí tuệ nhân tạo (AI). Tại phiên thảo luận này, đại biểu Quốc hội TP Cần Thơ nêu quan điểm về sự cần thiết xây dựng và ban hành Luật Trí tuệ nhân tạo. Đại biểu cũng đề nghị tiếp tục chỉnh lý dự thảo theo hướng rõ ràng, đồng bộ và có khả năng đáp ứng tốc độ phát triển nhanh của công nghệ AI… Đồng thời, phân tích sâu yêu cầu đặt ra đối với khuôn khổ pháp lý, cảnh báo rủi ro đạo đức, đề xuất cách tiếp cận thận trọng và làm rõ sự cần thiết của việc thành lập Quỹ Phát triển AI.

Cần chủ động khung pháp lý, tránh trùng lặp và mâu thuẫn


Đại biểu Quốc hội Lê Thị Thanh Lam.

Đại biểu Lê Thị Thanh Lam, Ủy viên Ban Chấp hành Đảng bộ TP Cần Thơ, Phó Trưởng đoàn chuyên trách Đoàn Đại biểu Quốc hội thành phố, bày tỏ băn khoăn về việc xây dựng một luật riêng về AI trong bối cảnh nguồn lực còn hạn chế và nhiều luật liên quan đang được sửa đổi. Đại biểu cho rằng AI là lĩnh vực rộng, liên quan đến công nghệ, khoa học dữ liệu, quyền riêng tư, an ninh, nên nếu tách thành luật riêng sẽ dễ phát sinh chồng chéo với các luật chuyên ngành. Đại biểu đề xuất tích hợp các nội dung về AI vào các luật khác đang sửa đổi, như luật khoa học - công nghệ, luật dữ liệu, để đảm bảo tính đồng bộ, dễ áp dụng, giảm thủ tục tra cứu cho người dân và tổ chức.

Cần luật riêng để bắt kịp thị trường AI phát triển nhanh

Tuy nhiên, theo quan điểm của một số đại biểu Quốc hội khác, cần thiết phải có một luật riêng về AI nhằm đáp ứng kịp yêu cầu phát triển trong nước và xu thế quốc tế.

Đại biểu Quốc hội Tô Ái Vang.

Đại biểu Tô Ái Vang, Ủy viên Ban Chấp hành Đảng bộ TP Cần Thơ, Phó Trưởng đoàn chuyên trách Đoàn Đại biểu Quốc hội thành phố, dẫn chiếu các mục tiêu lớn của Đảng: duy trì chỉ số đổi mới sáng tạo trong top 3 ASEAN, hình thành 5 doanh nghiệp công nghệ số trụ cột… Theo đại biểu để làm được điều đó, bắt buộc phải có hành lang pháp lý rõ ràng, bảo đảm phù hợp thông lệ quốc tế, thuận lợi cho nghiên cứu và ứng dụng AI.

Đại biểu Lê Minh Nam, Ủy viên là đại biểu Quốc hội hoạt động chuyên trách tại Ủy ban Kinh tế và Tài chính của Quốc hội thì cho rằng thị trường AI đã phát triển mạnh, ứng dụng ở mọi lĩnh vực từ hành chính công, giáo dục, y tế đến thương mại. Khi phạm vi tác động quá rộng, nếu không có luật riêng, việc điều chỉnh pháp lý khó đảm bảo đầy đủ, đồng bộ và nhất quán.

Đại biểu Quốc hội Nguyễn Tuấn Anh.

Cấp thiết xây dựng bộ quy tắc đạo đức AI

Đại biểu Nguyễn Tuấn Anh, Phó Bí thư Thành ủy, Trưởng Đoàn Đại biểu Quốc hội TP Cần Thơ phân tích rõ quan điểm xây dựng luật cần chú trọng “cân bằng” giữa quản lý và thúc đẩy nghiên cứu - ứng dụng AI. Tuy nhiên, theo đại biểu khái niệm “cân bằng” hiện vẫn còn chung chung và chưa rõ cách xác định; mô hình quản lý AI phải phân nhóm rủi ro, phân vùng lĩnh vực, thay vì áp dụng một cơ chế chung cho toàn bộ hệ thống AI. Chính sách quản lý cần linh hoạt theo từng giai đoạn phát triển để không cản trở đổi mới sáng tạo.

Nhấn mạnh yêu cầu chuẩn hóa đạo đức AI trong bối cảnh rủi ro lan rộng, đại biểu Nguyễn Tuấn Anh cho biết nhiều quốc gia như EU và Singapore đã ban hành quy tắc đạo đức AI trước khi xây dựng luật, vừa giúp định hướng trách nhiệm, vừa giảm rủi ro pháp lý khi luật chưa hoàn thiện. Ông đề xuất cần quy định rõ trách nhiệm của nhà nghiên cứu, nhà phát triển, doanh nghiệp và cơ quan quản lý trong toàn bộ vòng đời AI; đồng thời, phải điều chỉnh cả nghĩa vụ đạo đức (khuyến nghị) lẫn nghĩa vụ pháp lý (bắt buộc).

Về nguyên tắc chung về đạo đức, giao Chính phủ quy định chi tiết cũng là một nội dung được đại biểu quan tâm. Đại biểu Nguyễn Tuấn Anh cho biết, tại nhiều quốc gia, quá trình xây dựng chính sách về trí tuệ nhân tạo thường bắt đầu bằng việc ban hành các khung đạo đức và nguyên tắc hướng dẫn, sau đó mới đánh giá thực tiễn để hoàn thiện và tiến tới xây dựng luật. Ví dụ, Liên minh châu Âu (EU) trước khi hình thành Đạo luật AI đã công bố Bộ hướng dẫn đạo đức cho AI đáng tin cậy (2019) và thí điểm thực tế tại các doanh nghiệp. Singapore triển khai “Mô hình quản trị AI đáng tin cậy” từ năm 2019 như bộ nguyên tắc mềm trước khi xem xét quy định pháp lý.

"Cách tiếp cận theo hướng “đạo đức trước - luật sau” giúp thử nghiệm, điều chỉnh linh hoạt và giảm rủi ro khi ban hành quy định mang tính ràng buộc" - nhấn mạnh điều này, đại biểu Nguyễn Tuấn Anh đánh giá về Điều 27 dự thảo Luật đã bước đầu xác định các nguyên tắc cơ bản, tuy nhiên, cần nghiên cứu bổ sung nguyên tắc chung về đạo đức để giao Chính phủ quy định chi tiết, trong đó có tham chiếu các giá trị của các tổ chức quốc tế; bổ sung nguyên tắc “chịu trách nhiệm giải trình của các bên liên quan về tác động đạo đức và xã hội của hệ thống AI trong suốt quá trình từ nghiên cứu đến sử dụng hệ thống”; làm rõ mối quan hệ giữa quy tắc đạo đức (tính khuyến nghị) và nghĩa vụ pháp lý (tính bắt buộc).

Bên cạnh đó, Điều 28 dự thảo Luật mới chỉ quy định trách nhiệm đạo đức đối với khu vực nhà nước, trong khi các ứng dụng AI của khu vực tư nhân (như: y tế, tài chính, giáo dục…) cũng có thể gây ra tác động xã hội và đạo đức tương tự. “Đề nghị nghiên cứu, cân nhắc bổ sung nội dung quy định về trách nhiệm đạo đức trong khu vực tư nhân, bảo đảm tính toàn diện trong quy định của Luật” - đại biểu Nguyễn Tuấn Anh đề nghị.

Đại biểu Quốc hội Lê Minh Nam.

Đại biểu Lê Minh Nam, Ủy viên là đại biểu Quốc hội hoạt động chuyên trách tại Ủy ban Kinh tế và Tài chính của Quốc hội nêu rõ: “AI, nếu sử dụng tiêu cực, hệ lụy rất lớn”. Vì vậy, việc phòng ngừa rủi ro đạo đức, đặc biệt trong khu vực tư nhân - nơi ứng dụng AI rộng rãi - cần được quy định đầy đủ trong luật.

Đại biểu Tô Ái Vang đề nghị, bổ sung quy định rõ ràng hơn tại Điều 6, chỉnh sửa Khoản 5 để làm rõ trách nhiệm, thẩm quyền của Chính phủ trong việc quy định cơ chế hoạt động, vận hành và khai thác hệ thống dữ liệu trí tuệ nhân tạo, bảo đảm chặt chẽ và đồng bộ và bổ sung về điều khoản riêng về hành vi bị nghiêm cấm. Đại biểu nhấn mạnh yêu cầu xây dựng pháp luật phải dựa trên nguyên tắc đạo đức cơ bản và tiến bộ của xã hội, bảo đảm công bằng và tôn trọng con người. Do lĩnh vực AI tiềm ẩn nhiều rủi ro, dự thảo Luật cần có điều khoản riêng quy định rõ các hành vi bị nghiêm cấm nhằm: làm rõ ranh giới pháp lý cho tổ chức, doanh nghiệp và cá nhân; ngăn ngừa các hành vi vi phạm; bảo đảm an toàn thông tin, an ninh mạng; hạn chế nguy cơ lợi dụng AI để tấn công, thao túng nhận thức hoặc gây hậu quả sai lệch. Đại biểu cho rằng đây là cơ sở quan trọng để bảo vệ quyền con người, quyền công dân và bảo đảm quản lý nhà nước hiệu quả trong môi trường số.

Làm rõ cơ sở chính sách và hiệu quả thực tiễn của Quỹ Phát triển AI

Một nội dung được nhiều đại biểu quan tâm là sự cần thiết của Quỹ Phát triển trí tuệ nhân tạo quốc gia.

Theo đại biểu Nguyễn Tuấn Anh, Trưởng Đoàn Đại biểu Quốc hội TP Cần Thơ, Tờ trình chưa làm rõ Quỹ khác gì các quỹ hiện hành như NAFOSTED hay NATIF, cũng như chưa chứng minh Quỹ sẽ khắc phục được hạn chế hiện nay trong hỗ trợ nghiên cứu và ứng dụng AI. Đại biểu đặt vấn đề về việc nếu thành lập Quỹ thì cơ chế phối hợp với các quỹ hiện có như thế nào, Quỹ có thu hút được nguồn lực xã hội hay chỉ dựa vào ngân sách? Nhà khoa học và doanh nghiệp AI có thực sự tiếp cận được nguồn vốn hỗ trợ gì, cần phải được quy định cụ thể.

Về vấn đề này, đại biểu Lê Minh Nam cho biết, kể cả không thành lập Quỹ, vẫn có thể bố trí nguồn lực từ Luật Ngân sách nếu có kế hoạch cụ thể và cơ chế quản lý phù hợp. “Không nên lập thêm quỹ nếu vận hành không hiệu quả, gây lãng phí” - đại biểu nhấn mạnh.

Trong khi đó, đại biểu Tô Ái Vang ủng hộ việc thành lập Quỹ Phát triển AI quốc gia vì cho rằng AI cần nguồn lực tài chính lớn, dài hạn để phát triển. Bà cho rằng, thành lập Quỹ Phát triển AI quốc gia nhằm hỗ trợ nghiên cứu, ứng dụng, đổi mới sáng tạo và phát triển nguồn nhân lực trong lĩnh vực AI. Tuy nhiên, cần có cơ chế giám sát, quản lý chặt chẽ để bảo đảm sử dụng vốn đúng mục đích, tránh lãng phí.

Đại biểu Quốc hội Đào Chí Nghĩa.

Phân loại rủi ro và chính sách phát triển nguồn nhân lực AI

Liên quan đến việc phân loại hệ thống AI, dù đánh giá cao cơ quan soạn thảo đã phân loại hệ thống AI, nhưng đại biểu Đào Chí Nghĩa, Ủy viên Ban Chấp hành Đảng bộ TP Cần Thơ, Phó Trưởng đoàn chuyên trách Đoàn Đại biểu Quốc hội thành phố, còn băn khoăn về tên gọi của hệ thống AI "có rủi ro không chấp nhận được". Thực chất, đại biểu cho rằng, đây là hệ thống AI vi phạm pháp luật, bị nghiêm cấm.

"Chúng ta xác định luôn như vậy chứ không ghi là rủi ro không chấp nhận được. Đây là hệ thống AI mà chúng ta sẽ không tiếp cận, không được chấp nhận tại Việt Nam và phải bị nghiêm cấm. Chúng ta xác định rõ như vậy và điều chỉnh tên gọi sẽ phù hợp hơn. Còn các hệ thống AI bảo đảm phục vụ cho đời sống của người dân, cho các hoạt động kinh tế, văn hóa, xã hội khác mà có độ rủi ro thì chúng ta đánh giá từ cao đến trung bình đến thấp" - đại biểu Đào Chí Nghĩa nhấn mạnh.

Đại biểu Quốc hội Nguyễn Mạnh Hùng.

Đại biểu Quốc hội Nguyễn Mạnh Hùng, Ủy viên là đại biểu Quốc hội hoạt động chuyên trách tại Ủy ban Kinh tế và Tài chính của Quốc hội, nêu nhiều góp ý quan trọng, tập trung vào vấn đề vùng cấm, nguyên tắc đạo đức, phân loại rủi ro và chính sách phát triển nguồn nhân lực AI. Đại biểu cho rằng việc quy định vùng cấm đối với AI là rất khó, bởi công nghệ thay đổi liên tục, không thể liệt kê đầy đủ hành vi bị cấm cho hiện tại và tương lai. Do đó, cần tiếp cận thông qua nguyên tắc đạo đức và phân loại rủi ro, thay vì liệt kê cứng danh mục cấm.

Theo đại biểu, dự thảo luật đã bước đầu thể hiện được tinh thần này tại Điều 4 quy định nguyên tắc đạo đức, phát triển AI lấy con người làm trung tâm. Về Điều 7 chia 4 cấp độ rủi ro, trong đó mức cao nhất gắn với các hành vi xâm phạm quyền con người và đồng thời được xem là “vùng cấm” của AI. Tại Điều 27 và 28 đưa ra khung đạo đức mang tính nguyên tắc. Tuy nhiên, đại biểu đề nghị bổ sung giải thích từ ngữ vì nhiều khái niệm về AI còn mới, cần diễn giải rõ để thống nhất khi áp dụng. Về cơ chế phân loại rủi ro, đại biểu cho rằng cần làm rõ hơn trách nhiệm. Dự thảo đang giao cho tổ chức cung cấp và sử dụng AI tự đánh giá và phân loại mức độ rủi ro. Đại biểu nhận định cách quy định này chưa bảo đảm chặt chẽ, bởi “chỉ khi con người phân loại rõ thì AI mới thực hiện đúng được”. Do đó cần xác định cụ thể hơn quy trình và chủ thể chịu trách nhiệm.

Liên quan phát triển nguồn nhân lực AI tại Điều 24, đại biểu đánh giá chính sách thu hút và phát triển nguồn nhân lực chất lượng cao cho lĩnh vực AI chưa thật sự rõ ràng. Trong bối cảnh nhân lực AI có thể được thu hút từ trong nước và quốc tế, dự thảo cần nêu rõ chiến lược nâng cao năng lực số, bảo đảm khả năng tiếp thu và vận dụng công nghệ AI phục vụ phát triển đất nước.

ĐOÀN ĐẠI BIỂU QUỐC HỘI TP CẦN THƠ

Chia sẻ bài viết