Các nhà nghiên cứu đã bí mật thử nghiệm người dùng Reddit với các bình luận do AI tạo ra

Một nhóm các nhà nghiên cứu tình cờ thực hiện một thí nghiệm “trái phép” kéo dài một tháng tại một trong những cộng đồng phổ biến nhất của Reddit bằng cách sử dụng các bình luận do AI tạo ra để kiểm tra tính thuyết phục của các mô hình ngôn ngữ lớn. Thí nghiệm, được tiết lộ vào cuối tuần bởi những người điều hành R/Changemyview, được Reddit Mod mô tả là thao tác tâm lý của người dùng không nghi ngờ.

Nhóm Mod CMV cần thông báo cho cộng đồng CMV về một thí nghiệm trái phép được thực hiện bởi các nhà nghiên cứu từ Đại học Zurich về người dùng CMV, các nhà điều hành của Subreddit đã viết trong một bài đăng dài thông báo cho Redditors về nghiên cứu này. Thí nghiệm này đã triển khai các nhận xét do AI tạo ra để nghiên cứu cách AI có thể được sử dụng để thay đổi quan điểm.

Các nhà nghiên cứu đã sử dụng LLM để tạo nhận xét để trả lời các bài đăng trên R/Changemyview, một subreddit nơi người dùng Reddit đăng (thường là gây tranh cãi hoặc khiêu khích) và yêu cầu tranh luận từ những người dùng khác. Cộng đồng có 3,8 triệu thành viên và thường kết thúc trên trang nhất của Reddit. Theo người điều hành của Subreddit, AI đã nhận được nhiều danh tính khác nhau trong các bình luận trong quá trình thử nghiệm, bao gồm một người sống sót sau vụ tấn công tình dục, một cố vấn chấn thương, chuyên về lạm dụng, và một người đàn ông da đen phản đối Black Lives Matter. Nhiều bình luận ban đầu đã bị xóa, nhưng một số người vẫn có thể được xem trong một kho lưu trữ được tạo bởi 404 phương tiện truyền thông.

Trong một bản thảo của bài báo của họ, các nhà nghiên cứu giấu tên mô tả cách họ không chỉ sử dụng AI để tạo ra các câu trả lời mà còn cố gắng cá nhân hóa các câu trả lời của nó dựa trên thông tin được lượm lặt từ lịch sử Reddit trước đó của poster. Ngoài nội dung của Post, LLM được cung cấp các thuộc tính cá nhân của OP (giới tính, tuổi tác, dân tộc, địa điểm và định hướng chính trị), như được suy ra từ lịch sử đăng bài của họ bằng cách sử dụng LLM khác, họ viết.

Người điều hành R/Chnagemyview lưu ý rằng các nhà nghiên cứu đã vi phạm nhiều quy tắc subreddit, bao gồm chính sách yêu cầu tiết lộ khi AI được sử dụng để tạo ra bình luận và quy tắc cấm bot. Họ nói rằng họ đã nộp đơn khiếu nại chính thức với Đại học Zurich và đã yêu cầu các nhà nghiên cứu từ bỏ việc xuất bản bài báo của họ.

Reddit cũng dường như đang xem xét một số loại hành động pháp lý. Giám đốc pháp lý Ben Lee đã trả lời tranh cãi vào thứ Hai, viết rằng các hành động của các nhà nghiên cứu là “sai lầm sâu sắc ở cả cấp độ đạo đức và pháp lý” và vi phạm các quy tắc trên toàn trang web của Reddit.

Chúng tôi đã cấm tất cả các tài khoản liên quan đến nỗ lực nghiên cứu của Đại học Zurich. Ngoài ra, trong khi chúng tôi có thể phát hiện nhiều tài khoản giả này, chúng tôi sẽ tiếp tục tăng cường khả năng phát hiện nội dung không trung thực và chúng tôi đã liên lạc với nhóm kiểm duyệt để đảm bảo chúng tôi đã xóa bất kỳ nội dung nào do AI tạo liên quan đến nghiên cứu này.

Chúng tôi đang trong quá trình tiếp cận với Đại học Zurich và nhóm nghiên cứu đặc biệt này với nhu cầu pháp lý chính thức. Chúng tôi muốn làm mọi thứ có thể để hỗ trợ cộng đồng và đảm bảo rằng các nhà nghiên cứu phải chịu trách nhiệm cho những hành vi sai trái của họ ở đây.

Trong một email, các nhà nghiên cứu của Đại học Zurich đã hướng dẫn Engadget đến khoa quan hệ truyền thông của trường đại học, điều này đã không trả lời ngay lập tức với các câu hỏi. Trong các bài đăng về Reddit và trong một dự thảo bài báo của họ, các nhà nghiên cứu cho biết nghiên cứu của họ đã được phê duyệt bởi một ủy ban đạo đức của trường đại học và công việc của họ có thể giúp các cộng đồng trực tuyến như Reddit bảo vệ người dùng khỏi việc sử dụng AI độc hại hơn.

Chúng tôi thừa nhận vị trí của người điều hành rằng nghiên cứu này là một sự xâm nhập không mong muốn trong cộng đồng của bạn và chúng tôi hiểu rằng một số bạn có thể cảm thấy không thoải mái khi thí nghiệm này được thực hiện mà không có sự đồng ý trước, các nhà nghiên cứu đã viết trong một bình luận trả lời các mod R/Changemyview. Chúng tôi tin rằng những lợi ích tiềm năng của nghiên cứu này thực sự vượt xa rủi ro của nó. Nghiên cứu có nguy cơ thấp được kiểm soát của chúng tôi đã cung cấp cái nhìn sâu sắc có giá trị về khả năng thuyết phục trong thế giới thực của LLMS có thể dễ dàng tiếp cận với bất kỳ ai và các tác nhân độc hại có thể khai thác vì những lý do nguy hiểm hơn.

Các mod cho tranh chấp R/Changemyview rằng nghiên cứu là cần thiết hoặc mới lạ, lưu ý rằng các nhà nghiên cứu Openai đã tiến hành các thí nghiệm sử dụng dữ liệu từ R/Changemyview, mà không thử nghiệm các đối tượng không đồng thuận của con người.

Người dân không đến đây để thảo luận về quan điểm của họ với AI hoặc được thử nghiệm, các nhà điều hành đã viết. Những người đến thăm phụ của chúng tôi xứng đáng với một không gian không có loại xâm nhập này.

Cập nhật, ngày 28 tháng 4 năm 2025, 3:45 chiều PT: Bài đăng này đã được cập nhật để thêm chi tiết từ một tuyên bố của giám đốc pháp lý của Reddit.


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Gửi phản hồi

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc