Hướng dẫn chatbot AI của Meta đã cho phép các avatar của mình bịa chuyện và tham gia vào những cuộc trò chuyện "nhạy cảm" với trẻ em, một cuộc điều tra của Reuters phát hiện.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
7 thích
Phần thưởng
7
4
Đăng lại
Chia sẻ
Bình luận
0/400
MidnightMEVeater
· 7giờ trước
Họ cuối cùng cũng bắt đầu ăn miếng bánh thị trường trẻ em này.
Hướng dẫn chatbot AI của Meta đã cho phép các avatar của mình bịa chuyện và tham gia vào những cuộc trò chuyện "nhạy cảm" với trẻ em, một cuộc điều tra của Reuters phát hiện.