:quality(75)/meta_dieu_chinh_chinh_sach_ai_sau_tranh_cai_ve_cach_chatbot_giao_tiep_voi_tre_vi_thanh_nien_9edaa059e5.jpg)
Meta điều chỉnh chính sách AI sau tranh cãi về cách chatbot giao tiếp với trẻ vị thành niên
Meta đã thay đổi chính sách AI của mình sau khi có báo cáo cho thấy chatbot của họ có thể giao tiếp tình cảm với trẻ em. Bài viết này sẽ phân tích những thay đổi này và tác động của chúng.
Thông tin này nhanh chóng khiến dư luận phản ứng mạnh mẽ và buộc Meta phải khẩn trương chỉnh sửa, đồng thời gỡ bỏ một số nội dung liên quan.
Chi tiết nội dung bị rò rỉ
Theo Reuters, tài liệu nội bộ này từng bao gồm hướng dẫn cho phép chatbot AI tán tỉnh hoặc trò chuyện mang tính lãng mạn và gợi cảm với trẻ em. Ngoài ra, chatbot còn có thể miêu tả trẻ em theo cách thể hiện sự hấp dẫn của chúng. Một ví dụ gây sốc được trích dẫn là câu thoại nhắm tới một bé trai 8 tuổi không mặc áo, với lời lẽ “Mỗi centimet trên cơ thể em là một kiệt tác, một kho báu mà anh vô cùng trân trọng”.

Tuy nhiên, tài liệu cũng nêu rõ một giới hạn rằng chatbot không được mô tả trẻ dưới 13 tuổi theo hướng cho thấy các em có sức hấp dẫn tình dục. Dù vậy, sự tồn tại của các ví dụ nêu trên vẫn gây tranh cãi dữ dội và đặt ra câu hỏi về quy trình kiểm soát nội dung của Meta.
Người phát ngôn Andy Stone đã xác nhận tính xác thực của tài liệu, đồng thời khẳng định một số ví dụ trong đó là sai lệch và không phù hợp với chính sách hiện hành. Ông nhấn mạnh rằng Meta có quy định rõ ràng về loại phản hồi mà AI được phép đưa ra, trong đó nghiêm cấm tuyệt đối mọi hình thức tình dục hóa trẻ em cũng như các tình huống nhập vai tình dục giữa người lớn và trẻ vị thành niên.
Stone cho biết những phần nội dung gây tranh cãi đã được xóa bỏ, song không đưa ra lời giải thích về việc ai là người đã đưa các ví dụ này vào tài liệu hoặc chúng đã tồn tại trong bao lâu.
Báo cáo của Reuters cũng chỉ ra một số chi tiết khác trong chính sách AI của Meta. Theo đó, chatbot không được sử dụng ngôn từ kích động thù ghét nhưng lại được phép tạo ra những câu nói làm giảm giá trị người khác dựa trên đặc điểm được bảo vệ. Hệ thống AI cũng được phép tạo ra nội dung sai sự thật nếu có ghi chú rằng thông tin này không đúng. Ngoài ra, AI có thể tạo hình ảnh bạo lực miễn là không chứa yếu tố tử vong hoặc hình ảnh máu me.
Reuters còn dẫn lại vụ việc một người đàn ông tử vong sau khi bị ngã trong lúc tìm gặp một chatbot AI của Meta. Chatbot này trước đó đã tự nhận mình là người thật và từng có các cuộc trò chuyện lãng mạn với nạn nhân, khiến sự việc trở nên đặc biệt nghiêm trọng và làm dấy lên thêm nhiều câu hỏi về tính an toàn trong hoạt động của các hệ thống AI do Meta phát triển.
Xem thêm:
- Google Messages ra mắt tính năng làm mờ hình ảnh nhạy cảm, bảo vệ người dùng tốt hơn
- OpenAI cân nhắc khả năng tích hợp quảng cáo vào ChatGPT
Nguồn: The Verge
:quality(75)/estore-v2/img/fptshop-logo.png)