Meta huấn luyện các mô hình AI sử dụng dữ liệu người dùng Châu Âu


Meta đã xác nhận kế hoạch sử dụng nội dung công khai do người dùng trưởng thành tại EU (Liên minh Châu Âu) chia sẻ để huấn luyện các mô hình AI của mình, nhằm cải thiện khả năng và tính phù hợp văn hóa của các hệ thống AI cho dân số đa dạng tại châu Âu. Quyết định này được đưa ra sau khi Meta ra mắt các tính năng AI tại khu vực này, thể hiện cam kết của công ty đối với sự phát triển của AI được thiết kế riêng cho người dùng châu Âu.

Huấn luyện AI với nội dung công khai

Trong một tuyên bố, Meta đã viết: “Hôm nay, chúng tôi thông báo kế hoạch huấn luyện AI tại Meta bằng cách sử dụng nội dung công khai – như bài đăng công khai và bình luận – được chia sẻ bởi người trưởng thành trên các sản phẩm của chúng tôi ở EU. Các tương tác của mọi người với Meta AI – như câu hỏi và yêu cầu – cũng sẽ được sử dụng để huấn luyện và cải thiện các mô hình của chúng tôi.”

Bắt đầu từ tuần này, người dùng các nền tảng của Meta (bao gồm Facebook, Instagram, WhatsApp và Messenger) tại EU sẽ nhận thông báo về cách thức dữ liệu của họ sẽ được sử dụng trong huấn luyện AI. Những thông báo này, được gửi cả trong ứng dụng và qua email, sẽ cung cấp thông tin chi tiết về các loại dữ liệu công khai liên quan và cho phép người dùng từ chối thông qua một biểu mẫu đơn giản.

Vấn đề đạo đức và quyền riêng tư

Meta cũng đã đảm bảo với người dùng rằng các dữ liệu nhạy cảm sẽ không được sử dụng cho huấn luyện AI. Cụ thể, các tin nhắn riêng tư giữa bạn bè và gia đình sẽ không được sử dụng, và dữ liệu từ người dùng dưới 18 tuổi sẽ không được đưa vào quá trình huấn luyện mô hình AI. Điều này nhằm bảo vệ quyền riêng tư của người dùng trong khi vẫn đảm bảo rằng chỉ những thông tin công khai mới được đưa vào bộ dữ liệu huấn luyện.

Tuy nhiên, việc sử dụng dữ liệu người dùng cho huấn luyện các mô hình AI vẫn đặt ra một số câu hỏi đạo đức và quyền riêng tư. Nhiều người dùng có thể không mong muốn rằng nội dung họ chia sẻ công khai sẽ được sử dụng trong các hệ thống AI lớn để tạo ra các nội dung thương mại hoặc phân tích. Hơn nữa, việc áp dụng hệ thống “từ chối” thay vì “đồng ý” khiến người dùng phải chủ động phản đối, điều này có thể dẫn đến việc dữ liệu của họ bị sử dụng mặc định mà không có sự đồng ý rõ ràng.

AI dành cho người dùng EU

Mục tiêu cuối cùng của Meta là tạo ra các công cụ AI thiết kế riêng cho người dùng châu Âu, phản ánh các ngôn ngữ, phương ngữ và sắc thái văn hóa đặc trưng của khu vực này. Meta giải thích: “Chúng tôi tin rằng chúng tôi có trách nhiệm xây dựng AI không chỉ có sẵn cho người châu Âu mà còn được xây dựng dành riêng cho họ.” Công ty kỳ vọng rằng việc sử dụng dữ liệu người dùng để huấn luyện AI sẽ cải thiện tính phù hợp và chính xác của các mô hình AI, từ đó cung cấp một trải nghiệm người dùng cá nhân hóa và hiệu quả hơn.

Sáng kiến này đi sau sự ra mắt tính năng chatbot AI trên các nền tảng nhắn tin của Meta tại châu Âu. Theo Meta, việc sử dụng dữ liệu người dùng để huấn luyện các hệ thống AI là bước tiếp theo trong việc nâng cao tính hiệu quả của dịch vụ.

Meta và các đối thủ trong ngành

Meta cho rằng cách tiếp cận của mình là minh bạch hơn so với các đối thủ trong ngành, với việc sử dụng dữ liệu người dùng cho huấn luyện AI. Công ty cũng chỉ ra rằng các công ty như Google và OpenAI đã thực hiện các bước tương tự, sử dụng dữ liệu của người dùng tại châu Âu để huấn luyện các mô hình AI của họ. Meta khẳng định rằng việc áp dụng cách thức này tại EU sẽ giúp công ty phát triển những công cụ AI có tính phù hợp cao hơn đối với người dùng địa phương.

Bên cạnh đó, Meta cũng trích dẫn ý kiến từ Ban Bảo vệ Dữ liệu Châu Âu (EDPB) vào tháng 12 năm 2024, cho rằng cách tiếp cận của Meta đáp ứng đầy đủ các yêu cầu pháp lý của Liên minh Châu Âu.

Lo ngại về dữ liệu huấn luyện AI

Dù Meta cho rằng cách tiếp cận của mình là minh bạch và tuân thủ pháp lý, việc sử dụng dữ liệu người dùng để huấn luyện các mô hình AI lớn vẫn tiếp tục gây ra các lo ngại lớn về quyền riêng tư. Câu hỏi về việc dữ liệu “công khai” có thực sự được người dùng đồng ý sử dụng cho các mục đích này hay không vẫn là vấn đề gây tranh cãi. Thêm vào đó, việc sử dụng dữ liệu này có thể dẫn đến việc sao chép hoặc khuếch đại các thành kiến xã hội như phân biệt chủng tộc, giới tính, và thông tin sai lệch, ảnh hưởng đến tính công bằng và chất lượng của các mô hình AI.

Hơn nữa, vấn đề quyền sở hữu trí tuệ và bản quyền đối với các nội dung gốc như bài viết, hình ảnh, và video chia sẻ trên các nền tảng mạng xã hội cũng là một vấn đề pháp lý đáng lo ngại.

Việc Meta sử dụng dữ liệu người dùng EU để huấn luyện các mô hình AI đánh dấu một bước quan trọng trong sự phát triển của các công cụ AI, nhưng nó cũng làm nổi bật các tranh cãi về quyền riêng tư, sự đồng ý và các vấn đề đạo đức trong ngành công nghiệp AI. Khi AI tiếp tục phát triển và ảnh hưởng mạnh mẽ đến xã hội, các tổ chức cần phải tiếp tục đảm bảo rằng việc sử dụng dữ liệu của người dùng được thực hiện một cách minh bạch, công bằng và có trách nhiệm.