:quality(75)/vi_sao_chatgpt_khien_ban_cang_hoi_cang_tin_dieu_minh_nghi_la_dung_352e918055.jpg)
Vì sao ChatGPT khiến bạn càng hỏi càng… tin điều mình nghĩ là đúng?
Trong một thế giới nơi trí tuệ nhân tạo và công cụ tìm kiếm trở thành người bạn đồng hành mỗi khi cần lời khuyên, nghiên cứu mới đây từ tạp chí Proceedings of the National Academy of Sciences đã hé lộ một sự thật đáng lo ngại rằng, dù bạn dùng Google hay ChatGPT, rất có thể bạn chỉ đang nhận lại những gì mà bạn đã tin từ trước.
Theo nghiên cứu, nguyên nhân không nằm ở thuật toán mà nó nằm ở chính cách bạn đặt câu hỏi.
Tư duy thiên lệch và chiếc gương phản chiếu của AI
Các nhà nghiên cứu gọi đây là “hiệu ứng tìm kiếm hẹp”, một hiện tượng xảy ra khi người dùng vô thức tìm kiếm thông tin theo niềm tin sẵn có. Thay vì tra cứu để hiểu vấn đề một cách toàn diện, bạn có xu hướng đặt câu hỏi để phản ánh "thành kiến cá nhân". Chẳng hạn, người yêu thích cà phê sẽ tìm kiếm với cụm từ “Cà phê có tốt không?” trong khi người nghi ngờ tác hại của thức uống này sẽ tra “Cà phê có hại gì không?”. Cả hai loại truy vấn đều nhận về những kết quả xác nhận niềm tin sẵn có, dù bản chất khoa học có thể phức tạp và nằm đâu đó ở giữa hai cực.
AI dù là ChatGPT hay Google, đều được thiết kế để phản hồi trung thực với yêu cầu người dùng. Điều này đồng nghĩa nếu bạn hỏi một câu mang tính khẳng định, AI sẽ cung cấp thông tin phù hợp với giả định đó, thay vì thách thức hay mở rộng góc nhìn của bạn. Hệ quả là người dùng có thể lún sâu hơn vào vòng lặp niềm tin sai lệch, còn gọi là “hiệu ứng hố thỏ”, nơi mỗi câu hỏi và câu trả lời sau đó đều trở thành sự tiếp nối logic cho những định kiến ban đầu.

Nghiên cứu được thực hiện trên gần 10.000 người trong 21 thí nghiệm riêng biệt, cho thấy phần lớn người dùng khi được giao nhiệm vụ tìm hiểu một chủ đề, đã vô thức sử dụng câu hỏi mang tính thiên lệch. Các hệ thống AI và công cụ tìm kiếm, trong khi đó, phản hồi chính xác theo truy vấn, nhưng lại thiếu tính đa chiều. Điều đáng chú ý là khi người tham gia nhận được câu trả lời xác nhận niềm tin ban đầu, họ gần như không thay đổi quan điểm, bất kể nội dung có mang yếu tố khoa học hay khách quan.
Eugina Leung, tác giả chính của nghiên cứu cho rằng cách duy nhất để thoát khỏi cái bẫy tư duy này là học lại cách đặt câu hỏi. Trước hết, thay vì hỏi những câu mang tính định hướng như “Cổ phiếu này có tốt không?”, người dùng nên chuyển sang hỏi những điều cụ thể hơn như “Yếu tố nào cần cân nhắc trước khi đầu tư cổ phiếu này?”. Thứ hai, cần yêu cầu AI trình bày nhiều góc nhìn, bao gồm cả ưu và nhược điểm, kèm theo dẫn chứng đáng tin cậy nếu có. Và cuối cùng, người dùng nên tránh hỏi đi hỏi lại một hướng duy nhất, vì điều đó sẽ khiến AI ngày càng bó hẹp câu trả lời để phù hợp với mong đợi vô thức của bạn.
Nghiên cứu này không nhằm chỉ trích các hệ thống trí tuệ nhân tạo, bởi trong nhiều trường hợp, phản hồi “hẹp” là điều cần thiết để đưa ra thông tin chính xác và hiệu quả. Tuy nhiên, với các chủ đề phức tạp, tranh cãi hoặc liên quan đến quyết định dài hạn, việc mở rộng góc nhìn là điều không thể thiếu. Leung nhấn mạnh rằng kỹ năng đặt câu hỏi trung lập, rõ ràng và đa chiều không chỉ giúp người dùng tránh sa vào vòng lặp xác nhận niềm tin, mà còn trở thành một năng lực số thiết yếu trong kỷ nguyên AI.
Nguồn: CNET