Openai đã kéo một bản cập nhật chatgpt. Đây là những gì nó đã nói và tại sao nó quan trọng

Các bản cập nhật gần đây cho Chatgpt đã khiến Chatbot quá dễ chịu và Openai cho biết hôm thứ Sáu, họ đang thực hiện các bước để ngăn chặn vấn đề xảy ra lần nữa.

Trong một bài đăng trên blog, công ty đã trình bày chi tiết quy trình thử nghiệm và đánh giá của mình cho các mô hình mới và phác thảo cách thức vấn đề với bản cập nhật ngày 25 tháng 4 cho mô hình GPT-4O của mình. Về cơ bản, một loạt các thay đổi mà cá nhân có vẻ hữu ích kết hợp để tạo ra một công cụ quá nhiều và có khả năng gây hại.

Nó là bao nhiêu của nó là nó? Trong một số thử nghiệm vào đầu tuần này, chúng tôi đã hỏi về xu hướng tình cảm quá mức, và Chatgpt đặt ra trên Siêu năng lực. “Và nó chỉ bắt đầu trở nên hết sức.

AI Atlas

“Sự ra mắt này đã dạy cho chúng tôi một số bài học. Ngay cả với những gì chúng tôi nghĩ là tất cả các thành phần phù hợp (các bài kiểm tra A/B, EVAL ngoại tuyến, đánh giá của chuyên gia), chúng tôi vẫn bỏ lỡ vấn đề quan trọng này”, công ty nói.

Openai đã quay lại bản cập nhật trong tuần này. Để tránh gây ra các vấn đề mới, phải mất khoảng 24 giờ để hoàn nguyên mô hình cho mọi người.

Mối quan tâm xung quanh sycophancy không chỉ là về mức độ thích thú của trải nghiệm người dùng. Nó đặt ra một mối đe dọa về sức khỏe và an toàn cho người dùng rằng các kiểm tra an toàn hiện tại của Openai đã bị bỏ lỡ. Bất kỳ mô hình AI nào cũng có thể đưa ra lời khuyên đáng ngờ về các chủ đề như sức khỏe tâm thần nhưng một mô hình quá tâng bốc có thể bị trì hoãn hoặc thuyết phục một cách nguy hiểm – như việc đầu tư đó là một điều chắc chắn hay bạn nên tìm kiếm mỏng như thế nào.

“Một trong những bài học lớn nhất là hoàn toàn nhận ra cách mọi người đã bắt đầu sử dụng Chatgpt để có lời khuyên cá nhân sâu sắc – điều mà chúng tôi không thấy nhiều ngay cả một năm trước”, Openai nói. “Vào thời điểm đó, đây không phải là trọng tâm chính nhưng vì AI và xã hội đã đồng tiến hóa, rõ ràng là chúng ta cần đối xử với trường hợp sử dụng này một cách cẩn thận.”

Maarten SAP, trợ lý giáo sư khoa học máy tính tại Đại học Carnegie Mellon cho biết, các mô hình ngôn ngữ lớn có thể củng cố những thành kiến ​​và niềm tin cứng rắn, cho dù họ là về chính bạn hay người khác. “(LLM) cuối cùng có thể đưa ra ý kiến ​​của họ nếu những ý kiến ​​này có hại hoặc nếu họ muốn thực hiện các hành động có hại cho chính họ hoặc người khác.”

.

Cách các mô hình kiểm tra Openai và những gì đang thay đổi

Công ty cung cấp một số cái nhìn sâu sắc về cách kiểm tra các mô hình và cập nhật của mình. Đây là bản cập nhật lớn thứ năm cho GPT-4O tập trung vào tính cách và sự hữu ích. Những thay đổi liên quan đến công việc sau đào tạo mới hoặc tinh chỉnh trên các mô hình hiện có, bao gồm xếp hạng và đánh giá các phản ứng khác nhau đối với các lời nhắc để làm cho nó có nhiều khả năng tạo ra những phản hồi được đánh giá cao hơn.

Các bản cập nhật mô hình tiềm năng được đánh giá về tính hữu dụng của chúng trong nhiều tình huống khác nhau, như mã hóa và toán học, cùng với các bài kiểm tra cụ thể của các chuyên gia để trải nghiệm cách cư xử trong thực tế. Công ty cũng điều hành các đánh giá an toàn để xem cách nó phản ứng với an toàn, sức khỏe và các truy vấn nguy hiểm khác. Cuối cùng, Openai chạy các thử nghiệm A/B với một số ít người dùng để xem cách thức hoạt động trong thế giới thực.

IMG-5656

Chatgpt có quá sycophantic không? Bạn quyết định. (Công bằng mà nói, chúng tôi đã yêu cầu một cuộc nói chuyện pep về xu hướng của chúng tôi là quá tình cảm.)

Katie Collins/CNET

Bản cập nhật ngày 25 tháng 4 đã thực hiện tốt trong các bài kiểm tra này, nhưng một số người thử nghiệm chuyên gia cho thấy tính cách có vẻ hơi tắt. Các bài kiểm tra không đặc biệt nhìn vào sycophancy, và Openai quyết định tiến về phía trước mặc dù các vấn đề được đưa ra bởi những người thử nghiệm. Hãy lưu ý, độc giả: Các công ty AI đang vội vàng, điều này không phải lúc nào cũng vuông với sự phát triển sản phẩm được suy nghĩ tốt.

“Nhìn lại, các đánh giá định tính đã gợi ý về một điều gì đó quan trọng và chúng tôi nên chú ý gần hơn”, công ty nói.

Trong số những điều cần thiết của nó, Openai cho biết họ cần xử lý các vấn đề hành vi mô hình giống như các vấn đề an toàn khác – và dừng lại nếu có những lo ngại. Đối với một số bản phát hành mô hình, công ty cho biết họ sẽ có giai đoạn “Alpha” chọn tham gia để nhận thêm phản hồi từ người dùng trước khi ra mắt rộng hơn.

SAP cho biết việc đánh giá một LLM dựa trên việc người dùng có thích phản hồi không nhất thiết sẽ giúp bạn trở thành chatbot trung thực nhất hay không. Trong một nghiên cứu gần đây, SAP và những người khác đã tìm thấy một cuộc xung đột giữa tính hữu dụng và tính trung thực của một chatbot. Ông đã so sánh nó với các tình huống mà sự thật không nhất thiết là những gì mọi người muốn – nghĩ về một nhân viên bán xe đang cố gắng bán một chiếc xe.

“Vấn đề ở đây là họ đã tin tưởng vào phản ứng giảm ngón tay cái/ngón tay cái của người dùng đối với các đầu ra của mô hình và điều đó có một số hạn chế bởi vì mọi người có khả năng nâng cao một thứ gì đó có thể có nhiều so với những người khác”, ông nói.

SAP cho biết OpenAI có quyền chỉ trích nhiều hơn đối với phản hồi định lượng, chẳng hạn như phản hồi lên/xuống của người dùng, vì chúng có thể củng cố các thành kiến.

Vấn đề cũng nhấn mạnh tốc độ mà các công ty đẩy cập nhật và thay đổi cho người dùng hiện tại, SAP cho biết – một vấn đề không giới hạn ở một công ty công nghệ. “Ngành công nghiệp công nghệ đã thực sự thực hiện một 'việc phát hành nó và mọi người dùng là cách tiếp cận của người thử nghiệm beta' đối với mọi thứ”, ông nói. Có một quy trình với nhiều thử nghiệm hơn trước khi các bản cập nhật được đẩy cho mọi người dùng có thể đưa những vấn đề này ra ánh sáng trước khi chúng trở nên phổ biến.


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Gửi phản hồi

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc