Eric Schmidt cho thấy các quốc gia có thể tham gia vào sự cố AI (MAIM) được đảm bảo lẫn nhau (MAIM)

Cựu Giám đốc điều hành của Google, Eric Schmidt và người sáng lập AI ALECT ALEXANDR là đồng tác giả trên một bài báo mới có tên là Super SuperTellection Strategy, cảnh báo chống lại chính phủ Hoa Kỳ tạo ra một dự án Manhattan cho cái gọi là tình báo chung (AGI) vì nó có thể nhanh chóng thoát khỏi tầm kiểm soát trên thế giới. Ý chính của cuộc tranh luận là việc tạo ra một chương trình như vậy sẽ dẫn đến sự trả thù hoặc phá hoại bởi các đối thủ khi các quốc gia đua có khả năng AI mạnh nhất trên chiến trường. Thay vào đó, Hoa Kỳ nên tập trung vào việc phát triển các phương pháp như các cuộc tấn công mạng có thể vô hiệu hóa các dự án AI đe dọa.

Schmidt và Wang là những tên lửa đẩy lớn về tiềm năng của AI để thúc đẩy xã hội thông qua các ứng dụng như phát triển thuốc và hiệu quả tại nơi làm việc. Chính phủ, trong khi đó, coi đó là biên giới tiếp theo trong quốc phòng, và hai nhà lãnh đạo ngành về cơ bản lo ngại rằng các quốc gia sẽ kết thúc trong một cuộc đua để tạo ra vũ khí có tiềm năng ngày càng nguy hiểm. Tương tự như cách các thỏa thuận quốc tế đã thống trị trong việc phát triển vũ khí hạt nhân, Schmidt và Wang tin rằng các quốc gia nên phát triển chậm về AI và không trở thành con mồi cho việc đua nhau trong các máy giết chóc do AI cung cấp.

Tuy nhiên, đồng thời, cả Schmidt và Wang đang xây dựng các sản phẩm AI cho lĩnh vực quốc phòng. Cò trắng của các ứng cử viên mới đang xây dựng các công nghệ máy bay không người lái tự trị, trong khi quy mô AI của Wang trong tuần này đã ký hợp đồng với Bộ Quốc phòng để tạo ra các đặc vụ AI AI có thể hỗ trợ lập kế hoạch và hoạt động quân sự. Sau nhiều năm tránh xa công nghệ bán hàng có thể được sử dụng trong Warfare, Thung lũng Silicon hiện đang yêu nước để thu thập các hợp đồng quốc phòng sinh lợi.

Tất cả các nhà thầu quốc phòng quân sự đều có xung đột lợi ích để thúc đẩy chiến tranh động học, ngay cả khi không hợp lý về mặt đạo đức. Các quốc gia khác có các khu công nghiệp quân sự của riêng họ, suy nghĩ đi, vì vậy Hoa Kỳ cũng cần duy trì một. Nhưng cuối cùng, những người vô tội phải chịu đựng và chết trong khi những người quyền lực chơi cờ vua.

Palmer Luckey, người sáng lập Darling Darling Anduril, đã lập luận rằng các cuộc tấn công bằng máy bay không người lái nhắm mục tiêu của AI là an toàn hơn so với phóng Nukes có thể có khu vực tác động lớn hơn hoặc trồng các mỏ đất không có mục tiêu. Và nếu các quốc gia khác sẽ tiếp tục xây dựng vũ khí AI, chúng ta nên có khả năng tương tự như răn đe. Anduril đã cung cấp cho Ukraine máy bay không người lái có thể nhắm mục tiêu và tấn công các thiết bị quân sự của Nga trên các đường kẻ thù.

Anduril gần đây đã thực hiện một chiến dịch quảng cáo hiển thị văn bản cơ bản của tác phẩm tại Anduril.com, được bao phủ bởi từ không có chữ viết bằng chữ graffiti theo phong cách graffiti, dường như chơi với ý tưởng rằng làm việc cho khu công nghiệp quân sự hiện nay.

Schmidt và Wang đã lập luận rằng con người phải luôn luôn ở trong vòng lặp trong bất kỳ quyết định hỗ trợ AI nào. Nhưng như báo cáo gần đây đã chứng minh, quân đội Israel đã dựa vào các chương trình AI bị lỗi để đưa ra quyết định gây chết người. Máy bay không người lái từ lâu đã là một chủ đề gây chia rẽ, vì các nhà phê bình nói rằng các binh sĩ tự mãn hơn khi họ không trực tiếp trong Line of Fire hoặc không nhìn thấy hậu quả của hành động của họ. Nhận dạng hình ảnh AI nổi tiếng với việc phạm sai lầm và chúng tôi nhanh chóng hướng đến một điểm mà máy bay không người lái giết người sẽ bay qua lại tấn công các mục tiêu không chính xác.

Giấy Schmidt và Wang đưa ra rất nhiều giả định rằng AI sẽ sớm trở thành siêu thị, có khả năng thực hiện tốt nếu không tốt hơn như con người trong hầu hết các nhiệm vụ. Đó là một giả định lớn khi các mô hình suy nghĩ tiên tiến nhất của người Viking tiếp tục tạo ra các gaff lớn và các công ty bị ngập trong các ứng dụng công việc được viết kém được AI hỗ trợ. Những mô hình này là sự bắt chước thô thiển của con người với hành vi thường không thể đoán trước và kỳ lạ.

Schmidt và Wang đang bán một tầm nhìn về thế giới và các giải pháp của họ. Nếu AI sẽ toàn năng và nguy hiểm, các chính phủ nên đến gặp họ và mua sản phẩm của họ vì họ là những diễn viên có trách nhiệm. Cùng một vị trí, Sam Altman của Openai đã bị chỉ trích vì đưa ra những tuyên bố cao cả về những rủi ro của AI, mà một số người nói là một nỗ lực ảnh hưởng đến chính sách ở Washington và nắm bắt quyền lực. Nó giống như nói rằng, AI AI mạnh đến mức nó có thể phá hủy thế giới, nhưng chúng tôi có một phiên bản an toàn mà chúng tôi rất vui khi bán bạn.

Những cảnh báo của Schmidt không có khả năng có nhiều tác động khi Tổng thống Trump bỏ các hướng dẫn thời Biden xung quanh sự an toàn của AI và thúc đẩy Hoa Kỳ trở thành một lực lượng thống trị trong AI. Tháng 11 năm ngoái, một ủy ban quốc hội đã đề xuất dự án Manhattan cho AI mà Schmidt đang cảnh báo và khi những người như Sam Altman và Elon Musk có được ảnh hưởng lớn hơn ở Washington, thật dễ dàng để thấy nó đạt được lực kéo. Nếu điều đó tiếp tục, giấy cảnh báo, các quốc gia như Trung Quốc có thể trả đũa theo những cách như cố ý làm suy giảm các mô hình hoặc tấn công cơ sở hạ tầng vật lý. Đây không phải là một mối đe dọa chưa từng thấy, vì Trung Quốc đã đi vào các công ty công nghệ lớn của Mỹ như Microsoft và những người khác như Nga được cho là sử dụng tàu chở hàng để tấn công cáp quang dưới đáy biển. Tất nhiên, chúng tôi sẽ làm điều tương tự với họ. Tất cả đều tương hỗ.

Không rõ làm thế nào thế giới có thể đi đến bất kỳ thỏa thuận nào để ngừng chơi với những vũ khí này. Theo nghĩa đó, ý tưởng phá hoại các dự án AI để bảo vệ chống lại họ có thể là một điều tốt.


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc