Thực hiện bài kiểm tra phát hiện Deepfake

Nghiên cứu mới từ IPROOV, nhà cung cấp các giải pháp xác minh nhận dạng sinh trắc học dựa trên khoa học hàng đầu thế giới, cho thấy hầu hết mọi người đấu tranh để phát hiện các video và hình ảnh được tạo ra rất thực tế của AI được thiết kế để mạo danh người thật. Nghiên cứu, đã thử nghiệm 2.000 người tiêu dùng Anh và Mỹ, cho thấy chỉ có 0,1% người tham gia có thể phân biệt chính xác nội dung thực với Deepfakes.

Phát hiện chính

Deepfake phát hiện thấp đến mức đáng báo động – Chỉ 0,1% số người được hỏi xác định chính xác tất cả các kích thích thực tế và thực tế (hình ảnh và video) ngay cả khi được phỏng vấn để tìm chúng. Trong các kịch bản trong thế giới thực, nơi nhận thức thấp hơn, lỗ hổng có thể còn lớn hơn.

Các thế hệ cũ dễ bị tổn thương hơn -Khoảng 30% trong số 55-64 tuổi và 39% trong số những người ở độ tuổi 65+ chưa bao giờ nghe nói về Deepfakes, nêu bật một khoảng cách kiến ​​thức quan trọng làm tăng tính nhạy cảm với sự lừa dối.

Video Deepfake khó phát hiện hơn hình ảnh – Những người tham gia ít có khả năng xác định chính xác một video tổng hợp so với hình ảnh tổng hợp, làm tăng mối lo ngại về rủi ro gian lận trong các cuộc gọi video và xác minh danh tính.

Deepfake

Deepfakes bị hiểu lầm rộng rãi – Trong khi nhận thức đang tăng lên, 22% người tiêu dùng chưa bao giờ nghe nói về Deepfakes trước khi tham gia vào nghiên cứu.

Sự tự tin sai lầm đang lan tràn – Mặc dù có kỹ năng phát hiện kém, hơn 60% người tham gia tin rằng họ giỏi trong việc phát hiện ra Deepfakes. Sự tự tin quá mức này đặc biệt được phát âm ở những người trẻ tuổi (18-34 tuổi).

Phương tiện truyền thông xã hội tin cậy bị xói mòn – Các nền tảng như Meta (49%) và Tiktok (47%) được coi là nguồn chính của nội dung Deepfake, khiến 49%người tiêu dùng tin tưởng vào phương tiện truyền thông xã hội ít hơn sau khi tìm hiểu về Deepfakes. Tuy nhiên, chỉ có một phần năm sẽ báo cáo một Deepfake bị nghi ngờ.

Deepfakes nhiên liệu mối quan tâm xã hội – 74% số người được hỏi lo lắng về tác động của Deepfakes, với 68% trích dẫn tin tức giả mạo và thông tin sai lệch là mối quan tâm chính của họ. Trong số những người lớn tuổi, mối quan tâm tăng lên 82%.

Thiếu cơ chế báo cáo – 48% người tiêu dùng không biết làm thế nào để báo cáo Deepfakes và 29% không có hành động nào khi gặp phải.

Người tiêu dùng không xác minh thông tin trực tuyến – Mặc dù có mối đe dọa gia tăng, chỉ có 11% phân tích nghiêm túc các nguồn, trong khi chỉ có một phần tư tìm kiếm tích cực cho các nguồn thay thế khi họ nghi ngờ một Deepfake.

Những hiểu biết chuyên môn và tác động của ngành

Giáo sư Edgar Whitley, một chuyên gia nhận dạng kỹ thuật số tại Trường Kinh tế và Khoa học Chính trị Luân Đôn, nhấn mạnh thách thức ngày càng tăng: Phạm viCác chuyên gia an ninh từ lâu đã cảnh báo về các mối đe dọa do Deepfakes đặt ra. Nghiên cứu này xác nhận rằng các tổ chức không còn có thể chỉ dựa vào phán đoán của con người và phải áp dụng các giải pháp xác thực nâng cao để chống lại rủi ro Deepfake.

Giám đốc điều hành của IPROOV, Andrew Bud củng cố sự cấp bách: Chỉ với 0,1% người có thể xác định chính xác Deepfakes, cả người tiêu dùng và tổ chức vẫn rất dễ bị lừa đảo. Tội phạm đang khai thác điểm mù này, khiến an ninh cá nhân và tài chính gặp rủi ro. Các công ty công nghệ phải chịu trách nhiệm bằng cách thực hiện các biện pháp an ninh sinh trắc học mạnh mẽ, chẳng hạn như xác thực khuôn mặt với phát hiện Livity, để bảo vệ chống lại các mối đe dọa đang phát triển này.

Mối đe dọa ngày càng tăng của Deepfakes

Deepfake Technology đang tiến lên nhanh chóng. Báo cáo tình báo mối đe dọa năm 2024 của IPROOV cho thấy sự gia tăng 704% trong các giao dịch hoán đổi khuôn mặt, một kỹ thuật thường được sử dụng trong Deepfakes, trong năm qua. Những giả mạo do AI tạo ra cho phép tội phạm mạng mạo danh các cá nhân, có quyền truy cập trái phép vào dữ liệu nhạy cảm và tạo danh tính gian lận cho các hoạt động bất hợp pháp như ứng dụng cho vay và lừa đảo tài chính. Khả năng phân biệt sự thật với nội dung bịa đặt ngày càng trở nên khó khăn, với những ý nghĩa chính đối với an ninh, tin cậy và thông tin sai lệch.

Có thể làm gì?

Khi Deepfakes trở nên tinh vi hơn, việc phát hiện của con người không còn đáng tin cậy nữa. Các tổ chức phải áp dụng công nghệ sinh trắc học tiên tiến với phát hiện LIGHTER

  1. Người đúng
  2. Một người thật
  3. Xác thực trong thời gian thực

Để vượt lên dẫn trước các kỹ thuật DeepFake, các doanh nghiệp và chính phủ phải thực hiện phát hiện mối đe dọa liên tục, cải thiện các giao thức bảo mật và hợp tác với các nhà hoạch định chính sách để chống gian lận nhận dạng kỹ thuật số một cách hiệu quả.

Thực hiện bài kiểm tra phát hiện Deepfake

Nghĩ rằng bạn có thể phát hiện ra một Deepfake? Đặt các kỹ năng của bạn để kiểm tra! IPROOV đã tạo ra một bài kiểm tra trực tuyến tương tác thách thức người dùng phân biệt giữa nội dung thực và AI được tạo ra. Hãy làm bài kiểm tra và xem bạn ghi bàn như thế nào.


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Gửi phản hồi

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc