Theo một báo cáo mới, các nhà nghiên cứu đã phát hiện ra rằng công cụ phiên âm hỗ trợ âm thanh của OpenAI, Whisper, đang phát minh ra những điều chưa bao giờ được nói ra với những hậu quả nguy hiểm tiềm ẩn.
Theo APNewsmô hình AI đang phát minh ra văn bản (thường được gọi là 'ảo giác'), trong đó mô hình ngôn ngữ lớn phát hiện các mẫu không tồn tại trong tài liệu đào tạo của chính nó, do đó tạo ra những kết quả đầu ra vô nghĩa. Các nhà nghiên cứu Hoa Kỳ đã phát hiện ra rằng những sai lầm của Whisper có thể bao gồm bình luận về chủng tộc, bạo lực và các phương pháp điều trị y tế viển vông.
Whisper được tích hợp với một số phiên bản của ChatGPT và là sản phẩm tích hợp sẵn trong nền tảng điện toán đám mây của Microsoft và Oracle. Microsoft đã tuyên bố rằng công cụ này không dành cho mục đích sử dụng có rủi ro cao, mặc dù các nhà cung cấp dịch vụ chăm sóc sức khỏe đang bắt đầu áp dụng công cụ này để ghi lại các cuộc tư vấn của bệnh nhân với bác sĩ.
Whisper được nhà sản xuất tuyên bố là có “độ mạnh và độ chính xác gần bằng con người” và được cho là đã được hơn 30.000 bác sĩ lâm sàng Hoa Kỳ trên 40 hệ thống y tế áp dụng. Tuy nhiên, các nhà nghiên cứu đang cảnh báo việc áp dụng này vì có nhiều vấn đề được tìm thấy trong các nghiên cứu khác nhau.
Trong một nghiên cứu về các cuộc họp công cộng, một nhà nghiên cứu của Đại học Michigan đã phát hiện thấy Whisper gây ảo giác ở 8 trong số 10 bản ghi âm được kiểm tra. Trong khi đó, một kỹ sư máy học đã phát hiện ra ảo giác trong khoảng một nửa trong số hơn 100 giờ phiên âm và nhà phát triển thứ ba đã tìm thấy ảo giác ở gần như mọi một trong số 26.000 bản phiên âm mà anh ta tạo bằng Whisper.
Trong tháng vừa qua, Whisper đã được tải xuống hơn 4,2 triệu lần từ nền tảng AI nguồn mở HuggingFace, với công cụ này là mô hình nhận dạng giọng nói phổ biến nhất trên trang web. Phân tích tài liệu từ TalkBank, một kho lưu trữ được lưu trữ tại Đại học Carnegie Mellon, các nhà nghiên cứu xác định rằng 40% ảo giác mà Whisper tạo ra có thể gây hại vì người nói “hiểu sai hoặc trình bày sai”.
Trong các ví dụ của AP về những đoạn trích như vậy, một diễn giả đã mô tả “hai cô gái khác và một phụ nữ”, và Whisper đã phát minh ra bài bình luận về chủng tộc, lưu ý rằng “hai cô gái khác và một phụ nữ, ừm, là người da đen”. Trong một ví dụ khác, công cụ này đã tạo ra một loại thuốc hư cấu được gọi là “kháng sinh tăng hoạt tính”.
Giáo sư Alondra Nelson của Princeton nói với AP rằng những sai lầm như những sai lầm được phát hiện có thể gây ra “hậu quả thực sự nghiêm trọng”, đặc biệt là trong các cơ sở chăm sóc sức khỏe.
Có những lời kêu gọi OpenAI giải quyết vấn đề, như cựu nhân viên William Saunders nói với AP rằng “sẽ có vấn đề nếu bạn đưa nó ra ngoài và mọi người quá tự tin về những gì nó có thể làm và tích hợp nó vào tất cả các hệ thống khác”.
Mặc dù nhiều người dùng kỳ vọng rằng các công cụ AI sẽ mắc lỗi hoặc viết sai chính tả, nhưng các nhà nghiên cứu đã phát hiện ra rằng các chương trình khác cũng mắc lỗi nhiều như Whisper.
Tổng quan về AI của Google đã gặp phải sự chỉ trích đầu năm nay khi đề xuất sử dụng keo không độc hại để giữ cho phô mai không rơi ra khỏi bánh pizza, trích dẫn một bình luận châm biếm trên Reddit.
Giám đốc điều hành Apple Tim Cook thừa nhận trong một cuộc phỏng vấn rằng ảo giác AI có thể là một vấn đề trong các sản phẩm trong tương lai, bao gồm cả bộ Apple Intelligence. Cook nói với Washington Post rằng mức độ tin cậy của ông không phải 100% về việc liệu các công cụ này có gây ảo giác hay không.
Cook nói: “Tôi nghĩ chúng tôi đã làm mọi thứ mà chúng tôi biết phải làm, bao gồm cả việc suy nghĩ rất sâu sắc về mức độ sẵn sàng của công nghệ trong các lĩnh vực mà chúng tôi đang sử dụng nó”.
Mặc dù vậy, các công ty vẫn đang đẩy mạnh phát triển các công cụ và chương trình AI, với ảo giác, giống như các phát minh của Whisper, tiếp tục là một vấn đề phổ biến. Đối với phản ứng của OpenAI đối với ảo giác, họ đã khuyến nghị không nên sử dụng Whisper trong “bối cảnh đưa ra quyết định, trong đó những sai sót về độ chính xác có thể dẫn đến những sai sót rõ rệt trong kết quả”.