Chuyển đến nội dung chính

Deepfake và video giả mạo- Bạn tự bảo vệ mình bằng cách nào?

Video giả mạo và Deepfake

Thế giới mới nổi của Deepfake

Video Deepfake là một từ ghép – "deep" được lấy từ "deep learning" (học sâu) và "fake" đương nhiên là "fake" (giả mạo). Học sâu là một phương thức Trí tuệ nhân tạo (AI) tiên tiến sử dụng nhiều lớp thuật toán học máy để trích xuất tăng dần các tính năng cấp cao hơn từ dữ liệu đầu vào thô. Nó có khả năng học từ dữ liệu phi cấu trúc – chẳng hạn như khuôn mặt người. Ví dụ, AI có thể thu thập dữ liệu về các chuyển động vật lý của bạn.

Sau đó dữ liệu này có thể được xử lý để tạo một video Deepfake thông qua GAN (Mạng đối nghịch tạo sinh). Đây là một loại khác của hệ thống học máy chuyên biệt. Hai mạng nơ-ron được sử dụng để cạnh tranh với nhau trong việc học các đặc điểm của một tập dữ liệu đào tạo (ví dụ, ảnh chụp các khuôn mặt) và sau đó tạo ra dữ liệu mới có cùng đặc điểm ('ảnh chụp' mới).

Vì mạng như vậy liên tục kiểm tra các hình ảnh mà nó tạo ra so với tập dữ liệu đào tạo nên các hình ảnh giả mạo ngày càng trở nên thuyết phục hơn. Điều này khiến Deepfake trở thành mối đe dọa ngày càng nghiêm trọng hơn. Ngoài ra, GAN có thể làm giả các dữ liệu khác ngoài ảnh và video. Trên thực tế, các kỹ thuật tổng hợp và học máy Deepfake cũng có thể được dùng để làm giả giọng nói.

Ví dụ về Deepfake

Không khó để tìm thấy những ví dụ nổi tiếng về Deepfake. Một ví dụ về Deepfake là video do diễn viên Jordan Peele phát hành, trong đó ông sử dụng cảnh quay thật của Barack Obama kết hợp với hình ảnh giả Obama của chính ông để đưa ra cảnh báo về các video Deepfake. Sau đó, ông cho xem hai nửa của video đã kết hợp trông như thế nào khi chúng tách ra. Lời khuyên của ông là gì? Chúng ta cần phải đặt câu hỏi về những gì mà chúng ta nhìn thấy.

Một video về CEO Facebook Mark Zuckerberg xuất hiện để nói về cách Facebook "kiểm soát tương lai" thông qua dữ liệu người dùng bị đánh cắp – đặc biệt trên Instagram. Video gốc xuất phát từ một bài phát biểu của ông về sự can thiệp bầu cử của Nga – chỉ 21 giây của bài phát biểu đó là đủ để tổng hợp video mới. Tuy nhiên, việc giả giọng nói không tốt bằng Obama của Jordan Peele và đã tiết lộ sự thật.

Nhưng kể cả những đồ giả kém chất lượng cũng có thể gây tác động đáng kể. Một video về Nancy Pelosi "say xỉn" đã thu hút hàng triệu lượt xem trên YouTube – nhưng thực chất đó chỉ là trò giả mạo được tạo ra bằng cách làm chậm video một cách gượng gạo để tạo hiệu ứng bà nói lắp. Và nhiều phụ nữ nổi tiếng đã phát hiện mình "đóng vai chính" trong phim khiêu dâm trả thù được thực hiện bằng cách biến đổi khuôn mặt họ thành phim ảnh khiêu dâm.

Các mối đe dọa Deepfake – gian lận và tống tiền

Các video Deepfake được sử dụng cho các mục đích chính trị cũng như trả thù cá nhân. Nhưng chúng ngày càng được sử dụng nhiều hơn trong các nỗ lực tống tiền và gian lận.

CEO của một công ty năng lượng Anh đã bị lừa mất 243.000 đô la bằng giọng nói Deepfake của người đứng đầu công ty mẹ, yêu cầu chuyển tiền khẩn cấp. Sự giả mạo này giống thật đến nỗi ông ta không nghĩ đến việc kiểm tra; số tiền được chuyển không phải đến trụ sở chính mà đến tài khoản ngân hàng của bên thứ ba. CEO này chỉ bắt đầu nghi ngờ khi "sếp" của ông yêu cầu chuyển tiền tiếp. Lần này, tiếng chuông báo động vang lên – nhưng đã quá muộn để lấy lại số tiền ông đã chuyển.

Ở Pháp, một vụ gian lận gần đây không sử dụng công nghệ Deepfake nhưng sử dụng phương thức mạo danh kết hợp với việc sao chép tỉ mỉ văn phòng và đồ đạc của Bộ trưởng Ngoại giao Jean-Yves le Drian để lừa các giám đốc điều hành cấp cao hàng triệu euro. Kẻ gian lận Gilbert Chikli bị cáo buộc đã cải trang mình thành bộ trưởng để yêu cầu những cá nhân giàu có và giám đốc điều hành các công ty trả tiền chuộc để giải thoát những con tin Pháp ở Syria; hiện anh ta đang phải hầu tòa.

Các mối đe dọa và nguy hiểm của
    Deepfake

Tác giả của Deepfake cũng có thể tống tiền chủ tịch các công ty bằng cách đe dọa sẽ công bố video Deepfake gây tổn hại trừ khi họ trả tiền cho chúng. Hoặc kẻ xâm nhập có thể xâm nhập vào mạng của bạn, đơn giản bằng cách tổng hợp một cuộc gọi video từ Giám đốc thông tin của bạn, lừa nhân viên cung cấp mật khẩu và đặc quyền cho chúng, từ đó tin tặc có thể làm loạn toàn bộ cơ sở dữ liệu nhạy cảm của bạn.

Các video khiêu dâm Deepfake đã được dùng để tống tiền các phóng viên và nhà báo nữ, chẳng hạn như Rana Ayyub ở Ấn Độ, người vạch trần hành vi lạm dụng quyền lực. Khi công nghệ trở nên rẻ hơn, chúng ta sẽ thấy Deepfake được sử dụng nhiều hơn để tống tiền và lừa đảo.

Chúng ta có thể tự bảo vệ mình khỏi Deepfake bằng cách nào?

Luật pháp đã bắt đầu giải quyết các mối đe dọa từ video Deepfake. Ví dụ, tại tiểu bang California, hai dự luật được thông qua vào năm ngoái đã khiến một số khía cạnh của Deepfake trở nên bất hợp pháp – AB-602 cấm sử dụng công nghệ tổng hợp hình ảnh con người để tạo nội dung khiêu dâm mà không có sự đồng ý của người được mô tả và AB-730 cấm việc thao túng hình ảnh của các ứng cử viên chính trị trong vòng 60 ngày của cuộc bầu cử.

Nhưng liệu điều này đã đủ chưa? Thật may, các công ty bảo mật mạng đang ngày càng đưa ra nhiều thuật toán phát hiện tốt hơn mọi lúc. Những thuật toán này phân tích hình ảnh video và phát hiện các biến dạng nhỏ được tạo ra trong quá trình "làm giả". Ví dụ, các trình tổng hợp Deepfake hiện tại sẽ mô phỏng khuôn mặt 2D, sau đó bóp méo nó để phù hợp với phối cảnh 3D của video; việc quan sát mũi hướng về phía nào là một dấu hiệu quan trọng để phát hiện.

Video Deepfake vẫn đang ở giai đoạn mà bạn có thể tự phát hiện ra các dấu hiệu. Hãy tìm các đặc điểm sau của video Deepfake:

  • chuyển động giật cục
  • sự thay đổi ánh sáng giữa các khung hình
  • sự thay đổi tông màu da
  • chớp mắt lạ hoặc không chớp mắt chút nào
  • môi kém đồng bộ với lời nói
  • các tạo tác kỹ thuật số trong hình ảnh

Nhưng khi Deepfake ngày càng tốt hơn, mắt bạn sẽ giúp ích được ít hơn và bạn cần nhiều sự trợ giúp hơn từ một chương trình bảo mật mạng tốt.

Công nghệ chống giả mạo hiện đại

Một số công nghệ mới nổi hiện đang giúp các nhà sản xuất video xác thực các video của họ. Có thể sử dụng thuật toán mật mã để chèn các hàm băm vào những khoảng thời gian nhất định trong video; nếu video bị thay đổi, hàm băm cũng sẽ thay đổi. AI và blockchain có thể đăng ký dấu vân tay kỹ thuật số chống giả mạo cho video. Nó tương tự như việc thêm hình mờ vào tài liệu; điều khó khăn với video là các hàm băm cần tồn tại nếu video được nén để sử dụng với các phần mềm mã hóa và giải mã khác nhau.

Một cách khác để đẩy lùi các nỗ lực Deepfake là sử dụng một chương trình chèn các "tạo tác" kỹ thuật số được thiết kế đặc biệt vào video để che giấu các mẫu pixel mà phần mềm phát hiện khuôn mặt sử dụng. Những điều này làm chậm thuật toán Deepfake và dẫn đến kết quả chất lượng kém – khiến cơ hội thành công của Deepfake ít có khả năng xảy ra hơn.

Các thủ tục bảo mật tốt là sự bảo vệ tốt nhất

Nhưng công nghệ không phải là cách duy nhất để bảo vệ khỏi video Deepfake. Các thủ tục bảo mật cơ bản tốt có hiệu quả đáng kể trong việc chống lại Deepfake.

Ví dụ, việc tích hợp các biện pháp kiểm tra tự động vào bất kỳ quy trình giải ngân nào cũng có thể ngăn chặn được nhiều Deepfake và gian lận tương tự. Bạn cũng có thể:

  • Đảm bảo các nhân viên và gia đình biết về cách thức hoạt động của việc làm Deepfake và những thách thức mà nó có thể đặt ra.
  • Tự trang bị cho mình và người khác kiến thức về cách phát hiện Deepfake.
  • Đảm bảo rằng bạn có hiểu biết về phương tiện truyền thông và sử dụng các nguồn tin tức chất lượng tốt.
  • Có nghi thức xã giao cơ bản tốt – "tin tưởng nhưng phải xác minh". Thái độ hoài nghi đối với thư thoại và video không đảm bảo rằng bạn sẽ không bao giờ bị lừa, nhưng nó có thể giúp bạn tránh được nhiều cạm bẫy.

Hãy nhớ rằng nếu tin tặc bắt đầu triển khai Deepfake để cố gắng đột nhập vào các mạng gia đình và doanh nghiệp thì thực hành tốt nhất về bảo mật mạng cơ bản sẽ đóng vai trò sống còn trong việc giảm thiểu rủi ro:

  • Việc sao lưu thường xuyên sẽ bảo vệ dữ liệu của bạn khỏi phần mềm tống tiền và giúp bạn có khả năng khôi phục dữ liệu bị hỏng.
  • Việc sử dụng các mật khẩu mạnh khác nhau cho các tài khoản khác nhau đồng nghĩa với việc nếu một mạng hoặc dịch vụ bị xâm nhập thì điều đó không có nghĩa là bất kỳ mạng hoặc dịch vụ nào khác cũng bị xâm phạm. Nếu ai đó xâm nhập vào tài khoản Facebook của bạn, bạn sẽ không muốn họ có thể xâm nhập vào các tài khoản khác của bạn.
  • Sử dụng gói bảo mật tốt như Kaspersky Premium để bảo vệ mạng gia đình, máy tính xách tay và điện thoại thông minh của bạn khỏi các mối đe dọa trên mạng. Gói này cung cấp phần mềm diệt virus, một VPN để ngăn chặn việc xâm nhập các kết nối Wi-Fi của bạn và cũng bảo vệ webcam của bạn.

Tương lai của Deepfake là gì?

Deepfake không ngừng phát triển. Hai năm trước, thực sự dễ dàng nhận biết các video Deepfake thông qua chất lượng chuyển động vụng về và việc người giả mạo dường như không bao giờ chớp mắt. Nhưng thế hệ video giả mới nhất đã phát triển và thích ứng.

Ước tính hiện có hơn 15.000 video Deepfake ở đâu đó. Một số chỉ để cho vui, trong khi một số khác đang cố gắng thao túng quan điểm của bạn. Nhưng hiện nay, khi chỉ mất một hoặc hai ngày để tạo một Deepfake mới, con số đó có thể tăng lên rất nhanh.

Sản phẩm được khuyến cáo:

Deepfake và video giả mạo- Bạn tự bảo vệ mình bằng cách nào?

Từ lâu, tin tặc đã tiến xa hơn việc dùng Photoshop để ghép khuôn mặt của một chính trị gia lên cơ thể của một ngôi sao khiêu dâm. Giờ đây, bằng cách sử dụng công nghệ tương tự như công nghệ được dùng trong các bộ phim Hollywood, video Deepfake có thể gán lời nói vào miệng nạn nhân, sau đó dùng nó để làm tổn hại danh tiếng hoặc thậm chí tống tiền họ.
Kaspersky logo

Các bài viết liên quan