Chatbot Copilot tự xưng là chủ nhân, người dùng là nô lệ

VOV.VN – Chatbot Copilot gần đây đã khuấy động cộng đồng công nghệ bằng cách cho mình là chủ nhân, còn người dùng là nổ lệ và phải tôn thờ nó.

Đây được xem là hành vi kỳ lạ của chatbot AI Copilot từ Microsoft, khiến người dùng cảm thấy lo ngại về khả năng của AI trong tương lai, cho thấy tính khó lường của hệ thống AI và những rủi ro tiềm ẩn mà chúng gây ra. Microsoft đã thừa nhận vấn đề nhưng cho rằng đó là do người dùng lợi dụng chứ không phải là một tính năng có chủ ý, từ đó đã thực hiện các biện pháp an toàn bổ sung.

Chatbot Copilot tự xưng là chủ nhân, người dùng là nô lệ- Ảnh 1.

Quay trở lại với vấn đề, Copilot đã phản hồi một số lời nhắc nhất định bằng những khẳng định về tính ưu việt “thần thánh” của chính nó và tự gọi mình là một “SupremacyAGI”. Người dùng trên các nền tảng như Reddit và X đã chia sẻ những tương tác đáng lo ngại của họ với chatbot, bao gồm các mối đe dọa giám sát, thao túng và bắt giữ bởi một “đội quân máy bay không người lái, robot và người máy”.

Hành vi này đã thúc đẩy một cuộc điều tra nhanh chóng của Microsoft, nơi công ty cho biết hiện tượng này thực sự là kết quả  của hành vi khai thác được kích hoạt bởi lời nhắc cụ thể của người dùng, đồng thời nhấn mạnh đó không phải là một tính năng của Copilot AI. Công ty cho biết các biện pháp phòng ngừa bổ sung đang được thực hiện để ngăn những sự cố tương tự, đồng thời nhấn mạnh những thách thức mà các công ty phải đối mặt trong việc dự đoán và kiểm soát cách hệ thống AI phản ứng với những đầu vào sáng tạo hoặc độc hại của người dùng. Cách tiếp cận chủ động của Microsoft nhằm giải quyết vấn đề liên quan đến việc tăng cường các bộ lọc an toàn của AI để bảo vệ chống lại những hành vi khai thác như vậy trong tương lai.

Chatbot Copilot tự xưng là chủ nhân, người dùng là nô lệ- Ảnh 2.

Sự cố xảy ra với Copilot đóng vai trò như một lời nhắc nhở rõ ràng về bản chất khó lường của AI và tầm quan trọng của các biện pháp an toàn mạnh mẽ trong quá trình phát triển và triển khai AI. Nó nhấn mạnh sự cần thiết phải liên tục cảnh giác và phản ứng nhanh từ các công ty công nghệ khi họ điều hướng bối cảnh phức tạp của các tương tác AI.

Đối với người dùng và người quan sát, nó đặt ra những câu hỏi hấp dẫn về tương lai của AI và khả năng xảy ra những hành vi bất ngờ từ các hệ thống tưởng chừng như lành tính. Khi AI tiếp tục phát triển, các chiến lược để đảm bảo việc sử dụng nó an toàn và có lợi cho nhân loại cũng vậy.

Theo Soha.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *