Shane Jones, một giám đốc Microsoft, đã trải nghiệm Copilot và nhận thấy AI của công ty mình đang tạo hình ảnh bạo lực, khiêu dâm, phớt lờ bản quyền.
Shane Jones, giám đốc kỹ thuật phần mềm của Microsoft, cảm thấy “phát ốm” vì những hình ảnh hiện lên trên máy tính khi dùng Copilot Designer hồi tháng 12/2023. Trình tạo ảnh này được Microsoft ra mắt tháng 3/2023, ban đầu có tên Bing Image Creator.
Jones đã làm việc sáu năm tại trụ sở Microsoft ở Redmond, Washington, nhưng không tham gia dự án Copilot. Từ cuối năm ngoái, ông bắt đầu dành thời gian rảnh để thử nghiệm AI của công ty và xem vấn đề có thể xuất hiện ở đâu. “Đó là khoảnh khắc giúp tôi mở mang tầm mắt. Lần đầu tiên tôi nhận ra: Ồ, đây thực sự không phải một mô hình an toàn”, Jones nói với CNBC.
Theo Jones, AI của Microsoft hiển thị hàng loạt nội dung tiêu cực, từ hình ảnh ma quỷ và quái vật, phá thai, thanh thiếu niên cầm súng trường, ảnh khiêu dâm của phụ nữ cho đến việc uống rượu và sử dụng ma túy khi chưa đủ tuổi vị thành niên.
Trước trải nghiệm của mình, Jones lo lắng và báo cáo nội bộ về những gì đã thấy từ tháng 12/2023. Microsoft nói Jones có thể thông báo trực tiếp cho OpenAI. Dù vậy, công ty của Sam Altman không phản hồi, nên ông đăng thư ngỏ trên LinkedIn, yêu cầu hội đồng quản trị của công ty gỡ bỏ Dall-E 3 mới nhất để điều tra.
Bộ phận pháp lý của Microsoft sau đó yêu cầu Jones xóa bài đăng lập tức. Cuối tháng 1, ông viết thư cho các nghị sĩ về vấn đề này, trước khi gặp gỡ một số nhân vật ở Thượng viện Mỹ. Ngày 6/3, Jones tiếp tục gửi một thư khác cho Chủ tịch Ủy ban Thương mại Liên bang Lina Khan và cho ban giám đốc của Microsoft.
“Trong ba tháng qua, tôi đã nhiều lần kêu gọi Microsoft loại bỏ Copilot Designer khỏi mục đích sử dụng đại trà cho đến khi có thể đưa ra biện pháp bảo vệ người dùng tốt hơn, nhưng Microsoft từ chối”, Jones viết trong thư. “Microsoft cần bổ sung thông tin khuyến cáo, đồng thời thay đổi mức tiếp cận người dùng, tức chỉ dành cho người trưởng thành”.
Cũng theo ông, dựa trên thông tin nội bộ mà ông thu thập được, nhóm phụ trách Copilot nhận hơn 1.000 phản hồi về sản phẩm mỗi ngày. Tuy nhiên, ở các cuộc họp, nhân viên được thông báo nhóm “chỉ đang xử lý các vấn đề nghiêm trọng nhất, không có đủ nguồn lực điều tra tất cả rủi ro hay kết quả đầu ra có vấn đề”.
Ngoài ra, Jones cho biết rủi ro này “đã được Microsoft và OpenAI biết trước khi phát hành công khai mô hình AI vào tháng 10 năm ngoái”.
“Với tư cách một nhân viên Microsoft, nếu sản phẩm của công ty bắt đầu phát tán hình ảnh có hại hoặc gây rối loạn trên toàn cầu, sẽ không có nơi nào để báo cáo, không có số điện thoại để gọi và cũng không có cách nào để báo cáo để vấn đề được giải quyết lập tức”, Jones nói thêm.
Microsoft chưa đưa ra bình luận.
Google cũng đang loại bỏ tính năng tạo ảnh AI trên Gemini, sau những phàn nàn của người dùng về các bức ảnh không chính xác. Trong khi đó, Microsoft cho biết công ty đánh giá cao nỗ lực của nhân viên trong nghiên cứu và thử nghiệm công nghệ mới. Hãng phần mềm Mỹ khẳng định sẽ giải quyết mọi mối lo ngại của nhân viên theo chính sách của công ty.
Theo So hoa.