Arvind Narayanan, một giáo sư khoa học máy tính tại Đại học Princeton, được biết đến nhiều nhất khi chỉ trích sự cường điệu xung quanh trí tuệ nhân tạo trong Substack của ông, Dầu rắn AIđược viết cùng với ứng viên Tiến sĩ Sayash Kapoor. Hai tác giả gần đây đã phát hành một cuốn sách dựa trên bản tin phổ biến của họ về những thiếu sót của AI.
Nhưng đừng hiểu sai ý tôi—họ không phản đối việc sử dụng công nghệ mới. “Thật dễ hiểu sai thông điệp của chúng tôi khi nói rằng tất cả AI đều có hại hoặc đáng ngờ”, Narayanan nói. Trong cuộc trò chuyện với WIRED, ông nói rõ rằng lời khiển trách của ông không nhằm vào phần mềm, mà là vào những thủ phạm tiếp tục lan truyền những tuyên bố sai lệch về trí tuệ nhân tạo.
TRONG Dầu rắn AInhững người có tội duy trì chu kỳ cường điệu hiện tại được chia thành ba nhóm cốt lõi: các công ty bán AI, các nhà nghiên cứu nghiên cứu AI và các nhà báo đưa tin về AI.
Siêu lan truyền tin đồn
Các công ty tuyên bố dự đoán tương lai bằng thuật toán được định vị là có khả năng gian lận nhiều nhất. “Khi các hệ thống AI dự đoán được triển khai, những người đầu tiên bị chúng gây hại thường là những người thiểu số và những người đã sống trong cảnh nghèo đói”, Narayanan và Kapoor viết trong cuốn sách. Ví dụ, một thuật toán trước đây được chính quyền địa phương sử dụng ở Hà Lan để dự đoán ai có thể gian lận phúc lợi đã nhắm mục tiêu sai vào phụ nữ và những người nhập cư không nói tiếng Hà Lan.
Các tác giả cũng hướng cái nhìn hoài nghi đến các công ty chủ yếu tập trung vào các rủi ro hiện sinh, như trí tuệ nhân tạo tổng quát, khái niệm về một thuật toán siêu mạnh mẽ hơn con người trong việc thực hiện lao động. Tuy nhiên, họ không chế giễu ý tưởng về AGI. Narayanan cho biết: “Khi tôi quyết định trở thành một nhà khoa học máy tính, khả năng đóng góp cho AGI là một phần lớn trong bản sắc và động lực của riêng tôi”. Sự không phù hợp này xuất phát từ việc các công ty ưu tiên các yếu tố rủi ro dài hạn hơn tác động của các công cụ AI đối với con người hiện tại, một điệp khúc phổ biến mà tôi đã nghe từ các nhà nghiên cứu.
Các tác giả khẳng định rằng phần lớn sự cường điệu và hiểu lầm cũng có thể đổ lỗi cho nghiên cứu kém chất lượng, không thể tái tạo. Kapoor cho biết: “Chúng tôi thấy rằng trong nhiều lĩnh vực, vấn đề rò rỉ dữ liệu dẫn đến những tuyên bố quá lạc quan về mức độ hoạt động tốt của AI”. Rò rỉ dữ liệu về cơ bản là khi AI được thử nghiệm bằng một phần dữ liệu đào tạo của mô hình—tương tự như việc đưa ra câu trả lời cho học sinh trước khi tiến hành kỳ thi.
Trong khi các học giả được miêu tả trong Dầu rắn AI Theo các nhà nghiên cứu tại Princeton, khi mắc phải “lỗi sách giáo khoa”, các nhà báo có động cơ ác ý hơn và cố tình sai: “Nhiều bài viết chỉ là thông cáo báo chí được viết lại và tẩy chay như tin tức”. Các phóng viên né tránh việc đưa tin trung thực để duy trì mối quan hệ với các công ty công nghệ lớn và bảo vệ quyền tiếp cận của họ với các giám đốc điều hành của công ty được coi là đặc biệt độc hại.
Tôi nghĩ những lời chỉ trích về báo chí tiếp cận là công bằng. Nhìn lại, tôi có thể đã đặt những câu hỏi khó hơn hoặc thông minh hơn trong một số cuộc phỏng vấn với các bên liên quan tại các công ty quan trọng nhất trong lĩnh vực AI. Nhưng các tác giả có thể đang đơn giản hóa vấn đề ở đây. Thực tế là các công ty AI lớn cho phép tôi vào cửa không ngăn cản tôi viết các bài báo hoài nghi về công nghệ của họ hoặc làm việc trên các bài điều tra mà tôi biết sẽ khiến họ tức giận. (Đúng vậy, ngay cả khi họ thực hiện các thỏa thuận kinh doanh, như OpenAI đã làm, với công ty mẹ của WIRED.)
Và những câu chuyện tin tức giật gân có thể gây hiểu lầm về khả năng thực sự của AI. Narayanan và Kapoor nêu bật bản ghi chép chatbot năm 2023 của cây bút Kevin Roose của tờ New York Times tương tác với công cụ của Microsoft có tiêu đề “Trò chuyện AI của Bing: 'Tôi muốn được sống. 😈'” như một ví dụ về các nhà báo gieo rắc sự nhầm lẫn của công chúng về các thuật toán có tri giác. “Roose là một trong những người đã viết những bài báo này,” Kapoor nói. “Nhưng tôi nghĩ khi bạn thấy tiêu đề này đến tiêu đề khác nói về các chatbot muốn trở nên sống động, điều đó có thể tác động khá lớn đến tâm lý công chúng.” Kapoor đề cập đến Trò chuyện trực tuyến ELIZA từ những năm 1960, người dùng nhanh chóng nhân cách hóa một công cụ AI thô sơ, như một ví dụ điển hình về sự thôi thúc lâu dài trong việc áp đặt phẩm chất của con người lên các thuật toán đơn thuần.