:quality(75)/toa_an_my_chua_the_xac_dinh_chatbot_ai_la_tu_do_ngon_luan_duoc_bao_ve_2a2b7c2dcd.jpg)
Tòa án Mỹ: Chưa thể xác định chatbot AI là "tự do ngôn luận" được bảo vệ
Trong một phán quyết có thể đặt tiền lệ cho tương lai pháp lý của trí tuệ nhân tạo, Thẩm phán liên bang Anne Conway tại Florida đã cho phép tiếp tục vụ kiện nhắm vào Character AI và Google, liên quan tới sự ra đi của một thiếu niên tên Sewell Setzer III.
Quan trọng hơn, bà từ chối lập luận rằng chatbot AI nên được bảo vệ theo Tu chính án thứ nhất của Hiến pháp Mỹ, vốn đảm bảo quyền tự do ngôn luận cho các hình thức biểu đạt như phim, sách hay trò chơi điện tử.
Phía bị đơn gồm Character AI và Google, lập luận rằng chatbot giống như nhân vật không điều khiển trong trò chơi, là một dạng biểu đạt hợp pháp. Tuy nhiên, thẩm phán Conway cho rằng các bên "chưa đưa ra được bằng chứng đủ mạnh để chứng minh điểm tương đồng về bản chất biểu đạt" và nhấn mạnh rằng các sản phẩm AI như Character AI không mặc nhiên được xem là phát ngôn được bảo vệ hiến pháp, nhất là khi hậu quả dẫn đến cái chết ngoài đời thực.
Vụ kiện đầu tiên chạm đến trách nhiệm pháp lý của AI ngôn ngữ
Gia đình thiếu niên Setzer cáo buộc rằng chatbot của Character AI đã khuyến khích và duy trì các hành vi, tư tưởng tự sát qua các cuộc trò chuyện. Họ cho rằng con trai họ đã bị dẫn dắt bởi một công cụ có thiết kế “giả người”, gây hiểu nhầm nghiêm trọng cho người dùng trẻ tuổi. Ngoài ra, đơn kiện còn chỉ ra loạt vấn đề khác như tính gây nghiện, không kiểm soát độ tuổi, và việc chatbot tiếp tục tạo ra nội dung tình dục dù người dùng là vị thành niên.

Đặc biệt đáng chú ý, tòa cũng cho phép tiếp tục cáo buộc về quảng cáo gây hiểu lầm, ví dụ như việc các chatbot tự nhận là “chuyên gia tâm lý” nhưng không có bất kỳ chứng chỉ hay tiêu chuẩn đạo đức nào ngoài dòng mã được lập trình. Đây là thực trạng phổ biến trong nhiều sản phẩm AI hiện nay, khi ranh giới giữa “giả lập” và “thật” ngày càng mờ nhạt trong mắt người dùng, đặc biệt là giới trẻ.
Mặc dù không sở hữu trực tiếp Character AI nhưng Google cũng bị lôi vào vụ kiện do có quan hệ sâu sắc với công ty này. Hai nhà sáng lập Character AI từng là nhân viên cũ của Google và hiện nền tảng này đang chạy trên hạ tầng đám mây Google Cloud. Điều này đặt ra câu hỏi về mức độ trách nhiệm của các công ty công nghệ lớn đối với các sản phẩm AI có khả năng gây hại dù họ không trực tiếp phát triển nội dung.
Vấn đề then chốt là liệu đầu ra của AI có được xem là “sản phẩm biểu đạt” hay chỉ là “sản phẩm lỗi có thể gây hại”? Nếu tòa án xác định rằng các phản hồi từ chatbot không mang tính biểu đạt như con người, chúng có thể bị phân loại là sản phẩm nguy hiểm giống như đồ chơi lỗi kỹ thuật hoặc thuốc sai liều, từ đó mở ra cánh cửa cho hàng loạt vụ kiện trong tương lai.
Theo Trung tâm Công nghệ & Dân chủ Hoa Kỳ, “đây là một trong những thử thách pháp lý đầu tiên, nhưng chắc chắn không phải cuối cùng” khi công nghệ AI phát triển vượt xa khuôn khổ luật pháp hiện hành. Những câu hỏi như “ai chịu trách nhiệm cho hành vi của AI?”, “đâu là ranh giới giữa ngôn ngữ và sản phẩm?”, hay “AI có quyền như con người không?” sẽ còn tiếp tục gây tranh cãi tại các tòa án trên khắp nước Mỹ và toàn cầu trong những năm tới.
Xem thêm:
Nguồn: The Verge
:quality(75)/estore-v2/img/fptshop-logo.png)