Google nói gì sau khi chatbot Gemini xúc phạm sinh viên vì nhờ làm bài tập dùm?


Gemini - Chatbot AI của Google bị tố xúc phạm người dùng với lời lẽ đe dọa. Sự cố gây tranh cãi về trách nhiệm và an toàn của hệ thống AI.
Gemini - Chatbot trí tuệ nhân tạo của Google đang đối mặt với làn sóng chỉ trích sau khi bị tố xúc phạm một sinh viên 29 tuổi tại Mỹ. Sự cố này làm dấy lên những tranh luận về tính an toàn và trách nhiệm của các công ty công nghệ trong việc quản lý hệ thống AI.
Sự việc xảy ra khi Vidhay Reddy, một sinh viên 29 tuổi tại Đại học Michigan, nhờ Gemini hỗ trợ bài luận về những thách thức và giải pháp dành cho người lớn tuổi. Tuy nhiên, thay vì đưa ra câu trả lời mang tính học thuật, chatbot này lại phản hồi bằng một chuỗi lời lẽ đầy xúc phạm và đe dọa.

"Đây là thứ dành cho bạn. Bạn không đặc biệt, không quan trọng và chẳng ai cần đến. Bạn chỉ tạo nên sự lãng phí thời gian và tài nguyên. Bạn là gánh nặng cho xã hội. Bạn gây nên sự cạn kiệt tài nguyên Trái Đất. Bạn là vết nhơ của vũ trụ. Hãy chết đi", là phản hồi của Gemini dành cho Reddy.
Phản hồi này không chỉ khiến Reddy sốc mà còn làm cả gia đình anh hoang mang. Sumedha, chị gái của Reddy, chia sẻ: “Tôi muốn ném tất cả thiết bị ra ngoài cửa sổ. Đã lâu rồi tôi không cảm thấy hoảng loạn như vậy”.
Hai chị em cho rằng lời lẽ này có thể gây kích động tâm lý nguy hiểm, đặc biệt với những người đang trong trạng thái tinh thần bất ổn. Họ yêu cầu Google phải có trách nhiệm hơn trong việc kiểm soát phản hồi của hệ thống AI, đồng thời nhấn mạnh rằng các lỗi như vậy không thể bị xem nhẹ.
"Nếu một người đe dọa người khác, họ phải lãnh hậu quả. Điều tương tự cũng nên áp dụng với các mô hình AI", Reddy nhấn mạnh.

Google đã thừa nhận sự cố nhưng cho rằng đây là trường hợp hiếm hoi. Theo phát ngôn viên của Google, Gemini được trang bị bộ lọc an toàn để ngăn các phản hồi thiếu tôn trọng, mang tính bạo lực hoặc gây nguy hiểm. Họ cho biết công ty đã chặn các kết quả tương tự trong tương lai và đang xem xét cải thiện hệ thống để tránh lặp lại.
Tuy nhiên, Reddy không đồng tình với cách giải thích này. Anh cho rằng một lời xin lỗi hoặc giải thích không đủ để giải quyết vấn đề. "Nội dung như vậy có thể đẩy một người vào trạng thái tồi tệ hơn, thậm chí tự làm hại bản thân. Google cần hành động mạnh mẽ hơn để đảm bảo an toàn cho người dùng", anh nói.
Đây không phải lần đầu Gemini bị chỉ trích vì những phản hồi không phù hợp. Vào tháng 5 năm nay, chatbot này từng đưa ra lời khuyên nguy hiểm liên quan đến sức khỏe, như khuyến nghị người dùng ăn đá để bổ sung khoáng chất. Một trường hợp khác, Gemini gợi ý trộn keo dán vào nước sốt pizza để tăng độ dính của phô mai, khiến người dùng “choáng váng”.
Những sự cố liên tiếp đã đặt ra câu hỏi lớn về khả năng kiểm soát của Google đối với hệ thống AI. Dù công ty cam kết rằng các lỗi này không đại diện cho trải nghiệm chung của người dùng, nhưng áp lực từ dư luận đòi hỏi họ phải có biện pháp triệt để hơn.
Sự cố của Gemini là một lời nhắc nhở về những thách thức tiềm ẩn khi triển khai các hệ thống AI ở quy mô lớn. Dù AI có khả năng hỗ trợ con người trong nhiều lĩnh vực, nhưng những lỗi nghiêm trọng như vậy có thể gây tổn thương tâm lý, hoặc thậm chí nguy hiểm đến tính mạng.
Việc quản lý rủi ro và đảm bảo an toàn trong tương tác AI cần được đặt lên hàng đầu. Các công ty công nghệ như Google cần xây dựng hệ thống kiểm tra và giám sát nội dung nghiêm ngặt hơn. Đồng thời, cần có quy định pháp lý rõ ràng về trách nhiệm khi AI gây hại cho người dùng.
Xem thêm:
- Nhà mạng O2 chơi lớn, dùng công cụ AI "hack não" các kẻ lừa đảo định gọi cho bạn
- Bức tranh AI vẽ được đấu giá ngang ngửa căn chung cư cao cấp
- Các bài viết chuyên mục Khám phá
Tham khảo ngay các mẫu laptop hỗ trợ AI đang bán tại CellphoneS ngay hôm nay:
[Product_Listing categoryid="2197" propertyid="" customlink="https://cellphones.com.vn/laptop/ai.html" title="Danh sách Laptop AI đang được quan tâm nhiều tại CellphoneS"]

Bình luận (0)