Các cơ chế pháp lý kiểm soát rủi ro từ trí tuệ nhân tạo ở Việt Nam

Lượt xem: 25
Ngày đăng: 20-03-2025
Tác giả: Lê Hoàng Sơn
Mục lục bài viết

Sự phát triển vượt bậc của trí tuệ nhân tạo (AI) trong những năm gần đây với tiềm năng rộng lớn và khả năng ứng dụng sâu rộng đã làm thay đổi nhiều khía cạnh của đời sống con người. Tuy nhiên, bên cạnh những tác động tích cực, AI đem lại một số quan ngại về mặt đạo đức và pháp lý. Do đó, việc chủ động nghiên cứu, rà soát để hoàn thiện các cơ chế pháp lý kiểm soát rủi ro từ AI là cần thiết để nâng cao mức độ sẵn sàng của hệ thống pháp luật Việt Nam trước các vấn đề chưa có tiền lệ có thể phát sinh trong lĩnh vực còn mới mẻ này.

Trước khi phân tích các cơ chế pháp lý kiểm soát rủi ro từ AI, cần xác định đối tượng điều chỉnh mà các cơ chế này hướng đến. Bản thân AI là “hệ thống dựa trên máy móc được thiết kế để hoạt động với các mức độ tự chủ khác nhau”[1], là “công nghệ hướng đến việc mô phỏng trí thông minh của con người”[2]; không phải quan hệ xã hội thuộc phạm vi điều chỉnh của các quy phạm pháp luật. Do đó, pháp luật không điều chỉnh AI mà chỉ điều chỉnh các quan hệ xã hội phát sinh trong quá trình con người tương tác với AI hoặc với nhau thông qua AI.

Vì vậy, một số nhóm quan hệ xã hội phát sinh từ các hoạt động sau có thể bị điều chỉnh bởi pháp luật về AI, bao gồm: nghiên cứu AI; lập trình, xây dựng thuật toán, mô hình AI; cung cấp sản phẩm, dịch vụ ứng dụng AI; sử dụng các ứng dụng AI. Việc phân loại chỉ mang tính tương đối do các nhóm đối tượng trên có thể giao thoa với nhau, ví dụ như việc lập trình, xây dựng mô hình AI có thể trở thành một dịch vụ được thương mại hóa. Dù vậy, việc phân loại các quan hệ xã hội liên quan đến AI thành các nhóm theo tiêu chí về mục tiêu, kết quả, chủ thể thực hiện, mức độ rủi ro là cần thiết nhằm hoạch định chính sách, pháp luật điều chỉnh mỗi nhóm quan hệ xã hội một cách hợp lý nhất.

Theo quy định pháp luật hiện hành, các cơ chế pháp lý kiểm soát rủi ro từ AI ở Việt Nam có thể được phân vào 03 nhóm: Cơ chế các chủ thể tự kiểm soát rủi ro, cơ chế quản lý tiền kiểm và cơ chế quản lý hậu kiểm.

1. Các chủ thể tự kiểm soát rủi ro

Các chủ thể tham gia quan hệ dân sự có thể tự kiểm soát rủi ro từ AI trước hết thông qua việc thực hiện các quyền, nghĩa vụ của các bên được quy định trong hợp đồng, chẳng hạn như nghĩa vụ bảo mật thông tin, phạm vi chịu trách nhiệm,… Đối với người sử dụng dịch vụ AI, các điều khoản dịch vụ sẽ quy định quyền và nghĩa vụ của các bên cũng như cung cấp các cơ sở, hình thức giải quyết tranh chấp từ việc sử dụng dịch vụ. Trong trường hợp hợp đồng không quy định hoặc quy định không cụ thể, việc xác định quyền và nghĩa vụ các bên sẽ căn cứ vào quy định pháp luật liên quan như pháp luật dân sự, luật sở hữu trí tuệ, luật bảo vệ người tiêu dùng,…

Nếu cá nhân, tổ chức chịu thiệt hại ngoài hợp đồng, cơ chế bồi thường thiệt hại ngoài hợp đồng tại Chương XX Bộ luật Dân sự 2015 sẽ được áp dụng. Do AI chỉ là công cụ hỗ trợ con người, người sử dụng là chủ thể có quyền quyết định cuối cùng. Vì vậy, trách nhiệm bồi thường thiệt hại sẽ thuộc về người có hành vi gây thiệt hại[3]. Trong trường hợp AI là sản phẩm, dịch vụ gây thiệt hại cho người tiêu dùng, người tiêu dùng  có quyền được bồi thường thiệt hai nếu sản phẩm, dịch vụ “không bảo đảm chất lượng hàng hóa, dịch vụ”[4] hoặc “có khuyết tật”[5]. Nằm ngoài các trường hợp trên, trong tình huống thiệt hại gây ra do lỗi của AI, AI sẽ được xác định là một loại tài sản và “chủ sở hữu, người chiếm hữu tài sản phải chịu trách nhiệm bồi thường thiệt hại”[6].

Nhìn chung, các cơ chế pháp lý hiện hành đã cho phép các chủ thể tham gia quan hệ dân sự tự kiểm soát rủi ro từ AI linh hoạt từ quá trình đàm phán, giao kết hợp đồng đến bảo vệ quyền lợi hợp pháp của mình khi xảy ra thiệt hại. Tuy nhiên, việc các bên tự kiểm soát rủi ro từ AI còn một số hạn chế:

Thứ nhất, hiệu quả của cơ chế này phụ thuộc vào thiện chí và vị thế của các bên. Trong đó, người dùng thường là bên yếu thế hơn do họ thường phải ký các hợp đồng, thỏa thuận với các điều khoản bất lợi mà không hiểu rõ, nhận thức đầy đủ về bản chất, rủi ro của sản phẩm.

Thứ hai, cơ sở áp dụng quy định về bồi thường thiệt hại ngoài hợp đồng đối với những thiệt hại do AI gây ra vẫn còn gây tranh cãi, như xác định chủ thể chịu trách nhiệm, chứng minh yếu tố lỗi, sự tồn tại của mối quan hệ nhân quả giữa thiệt hại và hành vi trái pháp luật.

2. Nhà nước kiểm soát rủi ro từ AI thông qua cơ chế tiền kiểm

Cơ chế tiền kiểm được hiểu là việc Nhà nước đặt ra các điều kiện mà các chủ thể phải đáp ứng trước khi được phép thực hiện các hành vi thuộc đối tượng quản lý. Các điều kiện này được thể hiện bằng nhiều hình thức đa dạng, từ quy chuẩn kỹ thuật mà sản phẩm, dịch vụ phải đáp ứng đến các giấy phép, giấy chứng nhận, các điều kiên khác về chủ thể cần được cơ quan nhà nước có thẩm quyền chấp thuận, phê duyệt.

Về nguyên tắc, các cơ chế tiền kiểm đều phải được quy định trong luật để bảo đảm tính hợp hiến theo quy định tại Khoản 2 Điều 14 Hiến pháp 2013: “Quyền con người, quyền công dân chỉ có thể bị hạn chế theo quy định của luật trong trường hợp cần thiết vì lý do quốc phòng, an ninh quốc gia, trật tự, an toàn xã hội, đạo đức xã hội, sức khỏe của cộng đồng”. Đối tượng cần được quản lý theo cơ chế tiền kiểm tương đối đa dạng, từ các hàng hóa, dịch vụ có bản chất nguy hiểm, có thể gây nguy hiểm khi sử dụng hoặc khi không đáp ứng các tiêu chuẩn, quy chuẩn kỹ thuật,… cho đến các loại hàng hóa không nguy hiểm nhưng Nhà nước không khuyến khích để đảm bảo quốc phòng, an ninh quốc gia, trật tự, an toàn xã hội. Đối với các loại hàng hóa, dịch vụ như vậy, pháp luật hướng đến kiểm soát toàn diện việc quản lý, kinh doanh, sử dụng,…

Ngoài ra, một số ngành nghề Nhà nước không kiểm soát toàn diện mà chỉ quản lý hoạt động đầu tư kinh doanh, bao gồm “ngành, nghề mà việc thực hiện hoạt động đầu tư kinh doanh trong ngành, nghề đó phải đáp ứng điều kiện cần thiết vì lý do quốc phòng, an ninh quốc gia, trật tự, an toàn xã hội, đạo đức xã hội, sức khỏe của cộng đồng”[7], được liệt kê tại Phụ lục IV của Luật Đầu tư 2020 như hành nghề luật sư, hành nghề công chứng, sản xuất con dấu,… Bên cạnh đó, một số ngành, nghề quy định tại Điều 6 Luật Đầu tư 2020 bị cấm đầu tư kinh doanh, trừ trường hợp để phục vụ nghiên cứu, điều tra tội phạm, bảo vệ quốc phòng, an ninh.

Hiện nay, mức độ nguy hiểm của việc sử dụng AI chưa được nghiên cứu. Các hoạt động của AI không phải đối tượng điều chỉnh trực tiếp của bất cứ văn bản quy phạm pháp luật nào. Tuy nhiên, AI được sử dụng trong nhiều ngành, nghề đầu tư kinh doanh có điều kiện, ví dụ như ứng dụng AI vào đánh giá rủi ro trong kinh doanh bảo hiểm, đầu tư chứng khoán,… Những vấn đề liên quan đến AI đang được quản lý theo cơ chế tiền kiểm tại các văn bản như hoạt động chuyển dữ liệu cá nhân ra nước ngoài được quy định tại Nghị định số 13/2023/NĐ-CP ngày 17/04/2023 của Chính phủ về bảo vệ dữ liệu cá nhân; sản phẩm, dịch vụ sử dụng AI kinh doanh trên không gian mạng được quy định tại Nghị định số 52/2013/NĐ-CP ngày 16/5/2013 của Chính phủ về thương mại điện tử. Như vậy, việc kiểm soát AI đang được thực hiện gián tiếp thông qua cơ chế tiền kiểm nói chung với các sản phẩm, dịch vụ ứng dụng AI. Trong tương lai, nếu xác định quản lý tiền kiểm các hoạt động liên quan đến AI, bất kể là nghiên cứu, huấn luyện, thương mại hóa hay sử dụng, là một lĩnh vực, vấn đề này sẽ cần được điều chỉnh trước hết tại một văn bản quy phạm pháp luật. Tuy nhiên, đây là một vấn đề cần được cân nhắc kỹ lưỡng để tránh trở thành rào cản kỹ thuật gây hạn chế cạnh tranh trên thị trường.

3. Nhà nước kiểm soát rủi ro từ AI thông qua cơ chế hậu kiểm

Cơ chế hậu kiểm được hiểu là việc Nhà nước đặt ra các quy tắc ứng xử để các chủ thể tự giác điều chỉnh hành vi của mình. Nhà nước chỉ can thiệp thông qua việc tiến hành hoạt động thanh tra, kiểm tra việc chấp hành quy định pháp luật và có biện pháp xử lý khi phát sinh hành vi vi phạm các quy tắc ứng xử đó.

 Đặc trưng của cơ chế hậu kiểm là các quy định về trách nhiệm của chủ thể có độ mở cao. Trách nhiệm của các chủ thể có thể được thể hiện qua các nghĩa vụ như theo Điều 13 Nghị định 13/2023/NĐ-CP, bên kiểm soát dữ liệu cá nhân có nghĩa vụ thông báo cho chủ thể dữ liệu về xử lý dữ liệu cá nhân nhưng không cần đăng ký, thông báo với cơ quan nhà nước có thẩm quyền trước khi thực hiện hành động này. Mặt khác, trách nhiệm của chủ thể cũng có thể được thể hiện qua quy định cấm thực hiện một số hành vi nhất định như Điều 290 Bộ luật Hình sự 2015, sửa đổi, bổ sung năm 2017 cấm sử dụng mạng máy tính, mạng viễn thông, phương tiện điện tử thực hiện hành vi chiếm đoạt tài sản. Cơ chế hậu kiểm hướng đến kiểm soát hành vi thay vì kiểm soát các điều kiện của chủ thể. Do đó, cơ chế hậu kiểm phát huy tác dụng khi chủ thể có hành vi vi phạm trách nhiệm, được thể hiện rõ nét nhất ở hệ thống chế tài hành chính và hình sự.

Về nguyên tắc, đối tượng xử lý vi phạm hành chính chỉ bao gồm cá nhân, tổ chức[8]; đối tượng chịu trách nhiệm hình sự chỉ bao gồm cá nhân, pháp nhân thương mại[9]. Như vậy, hiện nay AI không thể chịu trách nhiệm hành chính, hình sự kể cả khi hành vi vi phạm pháp luật có thể được xác định do AI thực hiện. Có ý kiến cho rằng, do AI là sản phẩm được con người tạo ra, được lập trình về khả năng tư duy, suy đoán, không có khả năng tự nhận thức được hành vi của mình có vi phạm pháp luật hay không cũng như không có khả năng nhận thức được ý nghĩa của các chế tài xử phạt, việc đặt ra trách nhiệm đối với bản thân thực thể AI là vô nghĩa.

Thay vào đó, trách nhiệm hành chính, hình sự được áp dụng đối với các đối tượng sử dụng AI để thực hiện hành vi vi phạm pháp luật. Trong Bộ luật Hình sự 2015, việc sử dụng AI để thực hiện hành vi gây thiệt hại có thể cấu thành một số tội phạm trong lĩnh vực công nghệ thông tin và mạng viễn thông (từ Điều 285 đến Điều 294). Trong khi đó, việc xử phạt vi phạm hành chính được thực hiện theo Nghị định 15/2020/NĐ-CP ngày 03/02/2020 của Chính phủ quy định xử phạt vi phạm hành chính trong lĩnh vực bưu chính, viễn thông, tần số vô tuyến điện, công nghệ thông tin và giao dịch điện tử.

4. Kết luận

Qua những phân tích trên, hệ thống pháp luật Việt Nam hiện hành cơ bản đáp ứng được yêu cầu về bảo vệ quyền và lợi ích chính đáng của các chủ thể khỏi các rủi ro từ AI. Tuy nhiên, trong hiện tại, cần tiếp tục nghiên cứu một cách nghiêm túc, bài bản và có lộ trình nhằm hoàn thiện hệ thống pháp luật Việt Nam, nâng cao mức độ sẵn sàng của luật pháp trước những rủi ro mới có thể phát sinh từ AI trong tương lai.

 

[1] Điều 3.1 Đạo luật Trí tuệ nhân tạo của EU.

[2] Khoản 8 Điều 3 Dự thảo Luật Công nghiệp công nghệ số kèm theo Công văn số 3071/BTTTT-CNICT ngày 26/7/2024 của Bộ Thông tin và Truyền thông về việc thẩm định Hồ sơ dự án Luật Công nghiệp công nghệ số.

[3] Khoản 1 Điều 584 Bộ luật Dân sự 2015.

[4] Điều 608 Bộ luật Dân sự 2015.

[5] Điều 34 Luật Bảo vệ quyền lợi người tiêu dùng 2023.

[6] Khoản 3 Điều 584 Bộ luật Dân sự 2015.

[7] Khoản 1 Điều 7 Luật Đầu tư 2020.

[8] Điều 5 Luật Xử lý vi phạm hành chính 2012, sửa đổi, bổ sung năm 2020.

[9] Khoản 1 Điều 8 Bộ luật Hình sự 2015.

Chia sẻ:

Bài viết liên quan