Dữ liệu huấn luyện AI đang trở thành tài sản chiến lược của nền kinh tế số, kéo theo những tranh luận pháp lý ngày càng gay gắt về quyền khai thác và quyền kiểm soát dữ liệu người dùng.

Trong bối cảnh Việt Nam hoàn thiện khung pháp luật mới về sở hữu trí tuệ và bảo vệ dữ liệu cá nhân giai đoạn 2025 – 2026, một câu hỏi tưởng như kỹ thuật lại mang tính quyết định: liệu dữ liệu do người dùng tạo ra trên các nền tảng số có thể được sử dụng để huấn luyện AI hay không?

Vấn đề trở nên nhạy cảm hơn khi đặt trong “vùng trắng” pháp lý – các nền tảng không có Điều khoản sử dụng (Terms of Use – ToU) hoặc tuyên bố rõ ràng về quyền sở hữu trí tuệ.

Khi đó, sự im lặng của người dùng có phải là sự cho phép, hay chính là ranh giới pháp lý mà các nền tảng và chủ thể khai thác dữ liệu cho AI không được phép vượt qua?

dữ liệu huấn luyện AI

Bối cảnh pháp lý 2025 – 2026: Khi dữ liệu trở thành tài sản

Từ thông tin cá nhân đến nguyên liệu huấn luyện AI

Bước sang năm 2026, nền kinh tế số Việt Nam chứng kiến một sự chuyển dịch căn bản trong cách thức định giá và quản lý tài sản. Dữ liệu điện tử cá nhân, từ chỗ chỉ đóng vai trò là thông tin liên lạc, hồ sơ người dùng hay dữ liệu vận hành nền tảng, đã trở thành nguồn “nguyên liệu thô” (raw material) cốt lõi của ngành công nghiệp trí tuệ nhân tạo.

Cùng với sự thay đổi này, tư duy lập pháp về sở hữu trí tuệ cũng được điều chỉnh theo hướng tiệm cận hơn với logic thị trường và thương mại hóa.

Luật sửa đổi, bổ sung một số điều của Luật Sở hữu trí tuệ năm 2025 (Luật số 131/2025/QH15) (“Luật SHTT 2025”), chính thức có hiệu lực từ ngày 01/04/2026, đánh dấu một bước ngoặt quan trọng trong chính sách pháp luật về tài sản trí tuệ. Việc bổ sung Điều 8a lần đầu tiên ghi nhận trực tiếp quyền sở hữu trí tuệ như một loại tài sản tài chính, có thể được định giá, góp vốn và thế chấp, phản ánh rõ sự dịch chuyển từ tư duy “bảo hộ quyền” sang “tài sản hóa và thương mại hóa”.

Chính sự tài sản hóa này đã tạo ra động lực kinh tế mạnh mẽ cho các nền tảng công nghệ trong việc thu thập, xử lý và khai thác dữ liệu người dùng, đặc biệt là dữ liệu phục vụ huấn luyện các mô hình AI.

Tuy nhiên, song song với động lực đó là một thách thức pháp lý chưa từng có về quyền sở hữu và quyền kiểm soát dữ liệu: khi một bài viết, một tin nhắn hay một hình ảnh do người dùng tạo ra được sử dụng để huấn luyện AI, giá trị kinh tế phát sinh từ hoạt động này thuộc về ai – người dùng, nền tảng hay nhà phát triển AI? Đây chính là điểm khởi phát của các xung đột pháp lý phức tạp trong giai đoạn hiện nay.

dữ liệu cá nhân để huấn luyện AI

>>> Xem thêm: Việt Nam chính thức có Luật Trí tuệ Nhân tạo (Hiệu lực từ 01/03/2026)

Zalo và TikTok: những tiền lệ thực thi mang tính định hình

Để hiểu cách khung pháp lý mới được áp dụng trong thực tiễn, không thể bỏ qua các quyết định xử phạt hành chính đối với Zalo (VNG)TikTok vào tháng 01/2026. Đây không đơn thuần là các vụ việc vi phạm hành chính riêng lẻ, mà đã trở thành những tiền lệ thực thi có tác động định hướng hành vi cho toàn bộ thị trường nền tảng số tại Việt Nam.

Đối tượng

Mức phạt

Hành vi Vi phạm Chính

Hệ quả Pháp lý và Bài học

Zalo

(VNG Corp)

810 triệu VND

– Không thiết lập phương thức để người dùng chọn phạm vi thông tin cung cấp.

– Ép buộc người dùng đồng ý “trọn gói” hoặc xóa tài khoản (tháng 12/2025).

– Thu thập dữ liệu nhạy cảm (vị trí, quan hệ gia đình) cho mục đích không rõ ràng.

Nguyên tắc “Đồng thuận từng phần” (Granular Consent)

Sự đồng ý không thể bị cưỡng ép. Nền tảng không được dùng dịch vụ cốt lõi làm “con tin” để đổi lấy dữ liệu cho mục đích phụ (như AI).

TikTok

(TikTok Pte. Ltd.)

880 triệu VND

– Không có cơ chế cho phép người dùng từ chối (Opt-out) việc sử dụng dữ liệu cho quảng cáo/thương mại.

– Gây nhầm lẫn trong điều khoản giao dịch.

– Thiếu chính sách bảo vệ nhóm yếu thế.

Quyền được Lựa chọn (Right to Choose)

Người dùng phải có quyền từ chối các mục đích sử dụng thứ cấp (secondary use) mà không bị cắt dịch vụ.

Điểm đáng chú ý của các vụ việc này không nằm ở mức tiền phạt (810 triệu đồng đối với Zalo và 880 triệu đồng đối với TikTok), mà ở các nguyên tắc pháp lý cốt lõi được cơ quan quản lý khẳng định một cách nhất quán:

    • Sự đồng ý của người dùng không thể bị cưỡng ép: nền tảng không được đặt người dùng vào tình thế “chấp nhận toàn bộ hoặc rời bỏ dịch vụ”.

    • Các mục đích sử dụng thứ cấp như quảng cáo, phân tích dữ liệu hoặc huấn luyện AI không được gộp chung với mục đích cung cấp dịch vụ cốt lõi.

    • Quyền lựa chọn thực sự của người dùng phải được bảo đảm, bao gồm cả quyền từ chối các mục đích xử lý dữ liệu bổ sung mà không bị cắt giảm quyền truy cập dịch vụ.

Đặc biệt, vụ việc Zalo cập nhật Điều khoản sử dụng vào tháng 12/2025, yêu cầu người dùng phải đồng ý “trọn gói” để tiếp tục sử dụng dịch vụ, đã vấp phải phản ứng mạnh mẽ từ xã hội và sự can thiệp trực tiếp của cơ quan quản lý.

cập nhật điều khoản sử dụng

Điều này dẫn đến một kết luận có ý nghĩa nguyên tắc: ngay cả khi tồn tại Điều khoản sử dụng (ToU), các điều khoản đó vẫn có thể bị vô hiệu nếu vi phạm nguyên tắc tự nguyện, minh bạch và bảo vệ người tiêu dùng theo Luật Bảo vệ Dữ liệu Cá nhân và Luật Bảo vệ quyền lợi người tiêu dùng. ToU, vì vậy, không phải là “lá bùa miễn trừ” cho mọi hành vi khai thác dữ liệu.

“Kiềng ba chân” của khung pháp lý mới

Các tranh chấp liên quan đến việc sử dụng dữ liệu người dùng cho huấn luyện AI tại Việt Nam hiện nay không được điều chỉnh bởi một đạo luật đơn lẻ, mà nằm trong cấu trúc pháp lý đa tầng, dựa trên sự tương tác đồng thời của ba trụ cột chính:

    1. Luật SHTT 2025 – điều chỉnh quyền tác giả, quyền liên quan và các ngoại lệ cho phép khai thác văn bản và dữ liệu (Text and Data Mining – TDM).

    2. Luật Bảo vệ Dữ liệu Cá nhân 2025 (Luật số 91/2025/QH15) – điều chỉnh toàn bộ vòng đời xử lý dữ liệu cá nhân, từ thu thập, phân tích, lưu trữ đến chia sẻ, với yêu cầu nghiêm ngặt về sự đồng ý và bảo vệ dữ liệu nhạy cảm.

    3. Bộ luật Dân sự 2015 – cung cấp nền tảng pháp lý chung về giao kết hợp đồng, ý chí của các bên và nguyên tắc “sự im lặng không được coi là sự chấp thuận”, đồng thời bảo vệ các quyền nhân thân cơ bản.

Sự giao thoa này tạo ra một cơ chế “lọc nhiều tầng” đối với hoạt động khai thác dữ liệu cho AI. Một hành vi có thể được coi là hợp pháp dưới góc độ quyền tác giả (ví dụ: khai thác dữ liệu công khai cho mục đích nghiên cứu theo ngoại lệ TDM), nhưng đồng thời lại bị coi là trái pháp luật nếu vi phạm các quy định về xử lý dữ liệu cá nhân, đặc biệt trong trường hợp dữ liệu đó chứa thông tin định danh và không có sự đồng ý hợp lệ của chủ thể dữ liệu.

Quy định Ngoại lệ về Khai thác Văn bản và Dữ liệu (TDM) cho AI

Khoản 5 Điều 7 Luật SHTT 2025 và ba chốt chặn pháp lý

Một trong những điểm đổi mới quan trọng nhất của Luật SHTT 2025 là việc chính thức hợp pháp hóa hoạt động Khai thác văn bản và dữ liệu (Text and Data Mining – TDM) phục vụ huấn luyện hệ thống trí tuệ nhân tạo. Đây cũng là cơ sở pháp lý trọng tâm mà các doanh nghiệp AI thường viện dẫn khi tiến hành thu thập dữ liệu quy mô lớn.

Tuy nhiên, cách tiếp cận của lập pháp Việt Nam cho thấy TDM không được nhìn nhận như một quyền tự do tuyệt đối, mà là một ngoại lệ có điều kiện, chỉ được áp dụng khi đồng thời thỏa mãn ba “chốt chặn” pháp lý mang tính nguyên tắc (three-step test):

Thứ nhất, Tính hợp pháp của nguồn tiếp cận

Dữ liệu được sử dụng cho TDM phải là các đối tượng quyền SHTT đã được công bố hợp phápcông chúng được phép tiếp cận. Mọi hành vi khai thác dữ liệu thông qua các biện pháp bẻ khóa, vượt rào kỹ thuật hoặc sử dụng nội dung vi phạm bản quyền (pirated content) đều nằm ngoài phạm vi bảo hộ của ngoại lệ này.

Thứ hai, Mục đích sử dụng bị giới hạn

Luật ưu tiên rõ ràng cho các mục đích nghiên cứu khoa học, thử nghiệm và phát triển công nghệ. Đối với việc huấn luyện AI phục vụ mục đích thương mại, phạm vi áp dụng của ngoại lệ TDM bị thu hẹp đáng kể và có khả năng chịu sự điều chỉnh bổ sung của các nghị định hướng dẫn về cơ chế đền bù hoặc chia sẻ lợi ích.

Thứ ba, Không gây phương hại bất hợp lý đến quyền lợi của tác giả (no unreasonable prejudice)

Việc khai thác dữ liệu không được làm ảnh hưởng đến khả năng khai thác bình thường của tác phẩm, cũng như không gây thiệt hại bất hợp lý cho quyền và lợi ích hợp pháp của chủ sở hữu quyền.

Ba điều kiện này cho thấy lập pháp Việt Nam lựa chọn mô hình “mở có kiểm soát”: khuyến khích đổi mới sáng tạo và phát triển AI, nhưng đồng thời thiết lập các hàng rào pháp lý đủ mạnh để ngăn chặn việc tận dụng ngoại lệ TDM như một “giấy phép trắng” cho khai thác dữ liệu không giới hạn.

Khi nào dữ liệu người dùng được coi là “đã công bố”?

Để xác định dữ liệu người dùng có thể nằm trong phạm vi áp dụng của ngoại lệ TDM hay không, yếu tố mang tính quyết định là việc dữ liệu đó có được coi là “tác phẩm đã công bố” hay không theo Luật SHTT.

1. Trao đổi riêng tư và tin nhắn cá nhân

Theo Luật SHTT 2025 Việt Nam và các điều ước quốc tế về quyền tác giả, các hình thức trao đổi riêng tư như tin nhắn cá nhân, email, hoặc nội dung trong các nhóm kín (closed groups) không được coi là tác phẩm đã công bố. Bản chất của các nội dung này là sự giao tiếp có chủ đích giới hạn, không nhằm phổ biến ra công chúng.

Hệ quả pháp lý: các nền tảng không thể viện dẫn Khoản 5 Điều 7 Luật SHTT 2025 để tự ý sử dụng các trao đổi riêng tư này làm dữ liệu huấn luyện AI. Việc sao chép và xử lý các nội dung đó không chỉ xâm phạm quyền sao chép của tác giả, mà còn trực tiếp vi phạm quyền bí mật đời tư và các quy định về bảo vệ dữ liệu cá nhân.

2. Nội dung do người dùng tạo ra ở chế độ công khai (Public UGC)

Ngược lại, các bài viết blog công khai, bình luận trên diễn đàn mở hoặc trạng thái công khai trên mạng xã hội có thể được coi là đã công bố hợp pháp, và về mặt lý thuyết có thể rơi vào phạm vi của ngoại lệ TDM.

Tuy nhiên, ngay cả trong trường hợp này, quyền khai thác dữ liệu vẫn không phải là vô hạn. Nếu việc huấn luyện AI nhằm mục đích tạo ra các sản phẩm hoặc dịch vụ cạnh tranh trực tiếp với chính tác giả – chẳng hạn AI học phong cách sáng tác của một họa sĩ hoặc nhà văn để tạo ra sản phẩm thương mại thay thế – thì hành vi đó có nguy cơ vi phạm nguyên tắc “không gây phương hại bất hợp lý”. Rủi ro này không chỉ mang tính lý thuyết mà ngày càng hiện hữu trong thực tiễn phát triển AI tạo sinh.

Opt-out: quyền bảo lưu đã được thừa nhận, nhưng cơ chế vẫn bỏ ngỏ

Một đặc điểm đáng chú ý của Luật SHTT 2025 là cách tiếp cận theo hướng cho phép TDM nhưng bảo lưu quyền của tác giả. Dù hiện nay vẫn chưa có nghị định hướng dẫn cụ thể về tiêu chuẩn kỹ thuật để thực hiện quyền “từ chối” (Opt-out), tinh thần chung của luật cho thấy Việt Nam đang tiệm cận mô hình của Liên minh châu Âu theo Chỉ thị DSM.

Theo đó, hoạt động TDM có thể được phép thực hiện trừ khi chủ sở hữu quyền đã thể hiện ý chí bảo lưu quyền một cách phù hợp, chẳng hạn thông qua các cơ chế kỹ thuật có thể được máy đọc được (machine-readable means).

Chính sự thiếu vắng hướng dẫn chi tiết trong giai đoạn đầu này đã tạo ra gánh nặng tuân thủ đáng kể cho cả nền tảng số lẫn các nhà phát triển AI, đồng thời làm gia tăng rủi ro pháp lý nếu việc khai thác dữ liệu vượt quá giới hạn cho phép.

Nền tảng không có ToU: sự im lặng có phải là đồng ý?

Câu hỏi gây tranh cãi nhất trong thực tiễn hiện nay là: nếu một nền tảng số không có Điều khoản sử dụng (Terms of Use – ToU), liệu dữ liệu do người dùng tạo ra trên nền tảng đó có thể mặc nhiên được dùng để huấn luyện AI hay không?

Trực giác công nghệ thường dẫn tới một suy nghĩ nguy hiểm: “không cấm thì được làm”. Tuy nhiên, cách tiếp cận của pháp luật Việt Nam lại đi theo hướng hoàn toàn ngược lại.

Nguyên tắc cốt lõi của pháp luật dân sự: Im lặng không có nghĩa là đồng ý

Theo Bộ luật Dân sự 2015, đặc biệt là các quy định về giao kết hợp đồng, sự im lặng của một bên không được coi là sự chấp nhận, trừ khi có thỏa thuận trước hoặc tập quán rõ ràng. Áp dụng nguyên tắc này vào môi trường số, việc người dùng đăng tải nội dung lên một nền tảng không có ToU không thể được hiểu là họ đã đồng ý cho mọi hình thức khai thác dữ liệu.

Trong trường hợp này, mối quan hệ pháp lý giữa người dùng và nền tảng – nếu có – chỉ tạo ra một “giấy phép ngầm định” (implied license) với phạm vi rất hẹp, đủ để nền tảng vận hành về mặt kỹ thuật, chẳng hạn như lưu trữ dữ liệu trên máy chủ hoặc hiển thị nội dung cho chính người dùng.

Quan trọng hơn, giấy phép ngầm định này không bao gồm:

    • việc chuyển giao quyền tài sản đối với nội dung;

    • quyền tạo tác phẩm phái sinh;

    • hay quyền sử dụng dữ liệu đó cho các mục đích vượt ra ngoài vận hành nền tảng, như huấn luyện hệ thống AI.

Nói cách khác, việc “đăng lên” không đồng nghĩa với việc “cho phép khai thác tự do”.

Dưới góc độ Luật Bảo vệ Dữ liệu Cá nhân 2025: không có ToU là không có consent

Ngay cả khi tạm gác yếu tố quyền tác giả, việc sử dụng dữ liệu người dùng cho huấn luyện AI vẫn chịu sự điều chỉnh trực tiếp của Luật Bảo vệ Dữ liệu Cá nhân 2025.

Theo luật này, mọi hoạt động xử lý dữ liệu cá nhân – từ thu thập, phân tích đến lưu trữ – đều phải dựa trên sự đồng ý hợp lệ của chủ thể dữ liệu.

Sự đồng ý đó phải đáp ứng đồng thời ba yêu cầu:

    • tự nguyện;

    • cụ thể, rõ ràng về mục đích;

    • và được thể hiện bằng hành động tích cực, không phải sự mặc định hay suy diễn.

Trong bối cảnh một nền tảng không có ToU, thực tế pháp lý rất đơn giản: không tồn tại cơ chế nào để người dùng thể hiện sự đồng ý cho việc sử dụng dữ liệu vào mục đích huấn luyện AI. Do đó, mọi hoạt động thu thập và xử lý dữ liệu trong trường hợp này đều có nguy cơ bị coi là xử lý dữ liệu trái phép.

Rủi ro không chỉ dừng ở lý thuyết. Với mức xử phạt có thể lên tới 5% tổng doanh thu của năm tài chính trước, đây là một ranh giới pháp lý mà bất kỳ nền tảng hay doanh nghiệp AI nào cũng khó có thể xem nhẹ.

Về “tính mặc nhiên”

Từ cả hai góc độ – quyền sở hữu trí tuệ và bảo vệ dữ liệu cá nhân – câu trả lời đều thống nhất: KHÔNG.

Dữ liệu do người dùng tạo ra trên các nền tảng không có ToU không mặc nhiên trở thành dữ liệu huấn luyện AI.

Trong bối cảnh này, việc một nền tảng tự ý thu thập và sử dụng dữ liệu có thể đồng thời dẫn tới hai nhóm rủi ro pháp lý nghiêm trọng:

    • xâm phạm quyền SHTT, do sao chép và khai thác tác phẩm khi chưa được phép;

    • vi phạm pháp luật về dữ liệu cá nhân, do xử lý dữ liệu mà không có sự đồng ý hợp lệ.

Nói một cách ngắn gọn: sự im lặng của người dùng không phải là “tài nguyên” để AI khai thác.

Từ đối đầu sang quản trị: mô hình Allow/Disallow

Thay vì tiếp tục tranh luận “AI có được phép dùng dữ liệu hay không”, cách tiếp cận hiệu quả hơn là thiết lập một cơ chế quản trị quyền rõ ràng: dữ liệu nào được phép (Allow), dữ liệu nào bị loại trừ (Disallow), và ai là người có quyền quyết định. Mô hình Allow/Disallow không nhằm kìm hãm AI, mà nhằm giảm rủi ro pháp lý và tạo nền tảng phát triển bền vững.

Giải pháp cho Nền tảng: Chuyển đổi từ “Tận thu” sang “Minh bạch”

Trong bối cảnh Luật Bảo vệ Dữ liệu Cá nhân 2025 và Luật SHTT 2025 đã có hiệu lực, Privacy by Design không còn là khẩu hiệu mà trở thành yêu cầu tuân thủ bắt buộc. Các nền tảng không thể tiếp tục thiết kế hệ thống theo hướng “thu được gì thì thu”, rồi xử lý rủi ro pháp lý sau.

Về thực chất, nền tảng cần phân loại dữ liệu ngay từ tầng kiến trúc hệ thống và áp dụng cơ chế cho phép khác nhau tương ứng với từng loại dữ liệu.

Bảng đề xuất cơ chế Thu thập và Sử dụng Dữ liệu

Loại Dữ liệu

Cơ chế Đề xuất

Giải thích Kỹ thuật & Pháp lý

Dữ liệu Cá nhân & Nhạy cảm

(Tin nhắn, Sức khỏe, Tài chính)

Opt-in Tuyệt đối

– Mặc định là KHÔNG thu thập.

– Người dùng phải tích chọn chủ động (Active Checkbox).

– Consent phải tách biệt với điều khoản sử dụng dịch vụ chính.

Dữ liệu Công khai (UGC)

(Bài đăng Blog, Bình luận công khai)

Opt-out có điều kiện

– Có thể mặc định thu thập cho mục đích cải thiện dịch vụ (nếu ToU cho phép).

– Phải cung cấp nút “Tắt quyền sử dụng cho AI” dễ thấy.

– Tôn trọng các giao thức máy đọc (robots.txt).

Dữ liệu Ẩn danh/Tổng hợp

Thông báo (Notice)

– Không cần Consent từng người nhưng phải thông báo rõ trong Chính sách quyền riêng tư.

– Phải đảm bảo quy trình ẩn danh hóa không thể đảo ngược.

Điểm mấu chốt ở đây là: minh bạch không làm nền tảng yếu đi, mà ngược lại, giúp giảm thiểu rủi ro bị coi là “xử lý dữ liệu trái phép” hoặc “xâm phạm quyền SHTT trên quy mô lớn”.

Giải pháp Kỹ thuật cho Người dùng: Tự vệ trong Môi trường Số

Trong môi trường số, quyền tồn tại hiệu quả nhất là quyền được thực thi, không chỉ là quyền được ghi nhận trên giấy. Người dùng – đặc biệt là nhà sáng tạo nội dung – ngày nay có trong tay nhiều công cụ kỹ thuật để chủ động xác lập ranh giới pháp lý cho dữ liệu của mình.

1. Thiết lập rào cản kỹ thuật (Robots.txt & AI protocols)

    • Đối với website hoặc blog cá nhân, robots.txt vẫn là tuyến phòng thủ đầu tiên, vừa mang tính kỹ thuật vừa có giá trị pháp lý.

    • Trong bối cảnh pháp luật Việt Nam chưa chuẩn hóa hoàn toàn cơ chế opt-out kỹ thuật, việc cố tình vượt qua rào cản này có thể bị coi là hành vi xâm phạm có chủ ý – một tình tiết bất lợi khi xử lý vi phạm.

2. Watermarking và “data poisoning”

    • Các công cụ như Glaze hoặc Nightshade cho phép chèn các lớp nhiễu mà mắt thường không thấy, nhưng khiến mô hình AI không thể học hoặc sao chép phong cách sáng tạo.

    • Song song đó, tiêu chuẩn C2PA giúp gắn metadata xác thực nguồn gốc và quyền sở hữu, tạo dấu vết pháp lý rõ ràng khi xảy ra tranh chấp.

3. Tận dụng quyền của chủ thể dữ liệu

Người dùng có thể:

    • Gửi yêu cầu văn bản đến các nền tảng (như Zalo, Facebook, TikTok) yêu cầu cung cấp thông tin về việc dữ liệu của mình có đang được dùng để huấn luyện AI hay không (Quyền được biết – Điều 9 Nghị định 13/2023).

    • Thực hiện “Quyền rút lại sự đồng ý” (Right to withdraw consent) và yêu cầu xóa dữ liệu (Right to be forgotten) nếu không muốn tiếp tục tham gia.

Những quyền này, khi được sử dụng một cách chủ động, sẽ chuyển cán cân quyền lực từ nền tảng về phía người dùng.

Kiến nghị hoàn thiện Chính sách

Để mô hình Allow/Disallow vận hành hiệu quả ở cấp độ toàn thị trường, vai trò của Nhà nước là không thể thiếu. Ba nhiệm vụ lập quy mang tính then chốt gồm:

    • Chuẩn hóa cơ chế Opt-out: Xác định rõ các tiêu chuẩn kỹ thuật (robots.txt, metadata, ai.txt…) được công nhận là biện pháp bảo lưu quyền hợp pháp.

    • Xây dựng cơ chế đền bù: Thiết lập khung pháp lý cho việc chia sẻ lợi ích hoặc thu phí tác quyền tập thể đối với các mô hình AI thương mại sử dụng dữ liệu quy mô lớn.

    • Yêu cầu minh bạch dữ liệu huấn luyện: Buộc các nhà phát triển AI công bố danh mục nguồn dữ liệu huấn luyện ở mức độ hợp lý, đủ để chủ thể quyền có thể kiểm tra và thực hiện quyền khiếu nại.

Nếu không lấp đầy các khoảng trống này, tranh chấp giữa AI và quyền tác giả sẽ tiếp tục bị đẩy về phía tòa án – một kịch bản vừa tốn kém, vừa không có lợi cho đổi mới sáng tạo.

Không có AI bền vững nếu quyền bị “xem nhẹ”

Sự xuất hiện đồng thời của Luật SHTT 2025 và Luật Bảo vệ Dữ liệu Cá nhân 2025 đã thiết lập lại nền tảng pháp lý của kinh tế số Việt Nam. Trong trật tự mới này, dữ liệu người dùng không còn là “vùng xám” để mặc nhiên khai thác, mà là đối tượng quyền được bảo hộ có điều kiện, có chủ thể và có ranh giới rõ ràng.

Đối với các nền tảng không có Điều khoản sử dụng, câu trả lời pháp lý là dứt khoát: sự im lặng không phải là sự đồng ý. Dữ liệu do người dùng tạo ra vẫn được bảo vệ đồng thời bởi cơ chế quyền tác giả và quyền dữ liệu cá nhân. Mọi hành vi thu thập, phân tích hoặc sử dụng dữ liệu đó cho huấn luyện AI trong bối cảnh thiếu cơ chế đồng thuận hợp lệ đều tiềm ẩn rủi ro pháp lý nghiêm trọng, từ trách nhiệm dân sự đến xử phạt hành chính quy mô lớn.

Con đường khả thi cho tương lai không nằm ở việc nới lỏng chuẩn mực, mà ở quản trị quyền thông minh: kết hợp công nghệ minh bạch (Opt-in/Opt-out có thể kiểm chứng), thiết kế hệ thống tôn trọng quyền riêng tư ngay từ đầu, và tuân thủ nghiêm ngặt các nguyên tắc pháp luật. Chỉ khi quyền của người dùng và người sáng tạo được đặt đúng vị trí trung tâm, Việt Nam mới có thể xây dựng một hệ sinh thái AI bền vững, tránh lặp lại mô hình phát triển “tận thu” ngắn hạn nhưng đầy rủi ro pháp lý và xã hội.

Nguyễn Trần Cát Tường

Rate this post

MONDAY VIETNAM

  • E-mail: shtt@mondayvietnam.com
  • Điện thoại: 086 200 6070 – Hotline: 0932189012
  • Trụ sở: 68 Nguyễn Huệ, Phường Bến Nghé, Quận 1, Thành phố Hồ Chí Minh.
  • VPGD: Tầng 5, 205A Thuỷ Lợi 4 Tower, Nguyễn Xí, Phường 26, Quận Bình Thạnh, TP. HCM
  • Tây Nguyên: 124 Ngô Quyền, Phường Tân Lợi, TP. Buôn Ma Thuột, ĐakLak.
  • Hà Nội: Tầng 5, Số 4, Ngõ 81 Hoàng Cầu, Phường Ô Chợ Dừa, Quận Đống Đa