Meta đã xuất bản các báo cáo toàn vẹn hàng quý của mình kể từ khi Mark Zuckerberg quay trở lại các chính sách ngôn luận thù hận của công ty và thay đổi cách tiếp cận về điều độ nội dung vào đầu năm nay. Theo các báo cáo, Facebook đã thấy một sự gia tăng trong nội dung bạo lực, bắt nạt và quấy rối mặc dù số lượng nội dung giảm xuống tổng thể.
Các báo cáo là lần đầu tiên Meta chia sẻ dữ liệu về cách quyết định của Zuckerberg về các chính sách của Meta đã được đưa ra trên nền tảng được sử dụng bởi hàng tỷ người. Đáng chú ý, công ty đang quay các thay đổi như một chiến thắng, nói rằng họ đã giảm một nửa sai lầm của mình trong khi tỷ lệ nội dung tổng thể phá vỡ các quy tắc của mình “phần lớn không thay đổi đối với hầu hết các lĩnh vực có vấn đề.”
Có hai trường hợp ngoại lệ đáng chú ý, tuy nhiên. Nội dung bạo lực và đồ họa tăng từ 0,06% -0,07% vào cuối năm 2024 lên 0,09% trong quý đầu tiên của năm 2025. Meta quy cho sự gia tăng “tăng chia sẻ vi phạm nội dung” cũng như những nỗ lực của chính nó để “giảm các sai lầm thực thi”. Meta cũng chứng kiến sự gia tăng đáng chú ý về tỷ lệ bắt nạt và quấy rối trên Facebook, tăng từ 0,06-0,07% vào cuối năm 2024 lên 0,07-0,08% vào đầu năm 2025. .
Những thứ đó có vẻ giống như tỷ lệ tương đối nhỏ, nhưng ngay cả những mức tăng nhỏ cũng có thể đáng chú ý đối với một nền tảng như Facebook thấy hàng tỷ bài đăng mỗi ngày. (Meta mô tả số liệu tỷ lệ lưu hành của nó là ước tính về mức độ thường xuyên phá vỡ nội dung quy tắc xuất hiện trên nền tảng của nó.)
Báo cáo cũng nhấn mạnh tổng thể ít hơn bao nhiêu nội dung kể từ khi nó tránh xa việc thực thi chủ động tất cả nhưng các chính sách nghiêm trọng nhất của nó như khai thác trẻ em và nội dung khủng bố. Báo cáo của Meta cho thấy sự giảm đáng kể số lượng bài đăng trên Facebook bị xóa đối với nội dung đáng ghét, ví dụ, chỉ với 3,4 triệu nội dung “được thực hiện” theo chính sách, con số thấp nhất của công ty kể từ năm 2018. Việc loại bỏ thư rác cũng giảm từ 730 triệu lần vào năm 2024. Loại bỏ tài khoản giả trên Instagram.)
Đồng thời, Meta tuyên bố rằng họ đang mắc các lỗi kiểm duyệt nội dung ít hơn, đây là một trong những biện minh chính của Zuckerberg cho quyết định chấm dứt kiểm duyệt chủ động. ” Meta đã không giải thích cách tính toán con số đó, nhưng cho biết các báo cáo trong tương lai sẽ “bao gồm các số liệu về những sai lầm của chúng tôi để mọi người có thể theo dõi tiến trình của chúng tôi.”
Tuy nhiên, Meta thừa nhận rằng vẫn có ít nhất một nhóm trong đó một số điều độ chủ động vẫn cần thiết: thanh thiếu niên. “Đồng thời, chúng tôi vẫn cam kết đảm bảo thanh thiếu niên trên nền tảng của chúng tôi có trải nghiệm an toàn nhất có thể”, công ty viết. “Đó là lý do tại sao, đối với thanh thiếu niên, chúng tôi cũng sẽ tiếp tục chủ động ẩn các loại nội dung có hại khác, như bắt nạt.” Meta đã triển khai “tài khoản tuổi teen” trong vài tháng qua, điều này sẽ giúp dễ dàng lọc nội dung cụ thể cho người dùng trẻ hơn.
Công ty cũng cung cấp một bản cập nhật về cách sử dụng các mô hình ngôn ngữ lớn để hỗ trợ các nỗ lực kiểm duyệt nội dung của mình. “Sau khi thử nghiệm thêm, chúng tôi bắt đầu thấy các LLM hoạt động ngoài hiệu suất của con người đối với các lĩnh vực chính sách được chọn,” Meta viết. “Chúng tôi cũng sử dụng LLM để xóa nội dung khỏi hàng đợi đánh giá trong một số trường hợp nhất định khi chúng tôi rất tự tin rằng nó không vi phạm chính sách của chúng tôi.”
Thành phần chính khác cho những thay đổi chính sách của Zuckerberg là kết thúc quan hệ đối tác kiểm tra thực tế của Meta tại Hoa Kỳ. Công ty đã bắt đầu tung ra phiên bản cộng đồng của riêng mình lên Facebook, Instagram và các chủ đề vào đầu năm nay, và từ đó đã mở rộng nỗ lực để quay cuồng và trả lời các chủ đề. Meta đã không cung cấp bất kỳ cái nhìn sâu sắc nào về cách tiếp cận có nguồn gốc từ đám đông mới của nó đối với việc kiểm tra thực tế có thể hoặc tần suất các ghi chú xuất hiện trên nền tảng của nó, mặc dù nó đã hứa hẹn các bản cập nhật trong những tháng tới.
Khám phá thêm từ Phụ Kiện Đỉnh
Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.