“Bóng ma Deepfake”: Ghép mặt, giả giọng để lừa đảo

Khái quát chung về công nghệ Deepfake AI

Công nghệ Deepfake được xây dựng trên nền tảng machine learning (Học máy) mã nguồn mở của Google. Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để thực hiện. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc. Trong deepfake AI, các thuật toán học sâu tự dạy cách giải quyết vấn đề với tập dữ liệu lớn, được sử dụng để hoán đổi khuôn mặt trong video, hình ảnh và nội dung kỹ thuật số khác để làm cho giả mạo có vẻ như thật.

Với việc công nghệ doppelganger giúp tạo ra một bản sao giống hệt chủ thể ngày càng phát triển với độ chân thực video cải tiến thì người dân khó có thể phân biệt được đâu là người thực đang nói trước ống kính và đâu là video AI. Hiện nay, Deepfake đang trở thành nỗi ám ảnh, là “bóng ma” trong thế giới ảo, được tội phạm mạng trên khắp thế giới dùng vào nhiều mục đích xấu không chỉ dừng lại ở mục đích lừa đảo.

Cách thức hoạt động của Deepfake liên quan chặt chẽ với trí tuệ nhân tạo. Từ đó, hình ảnh khuôn mặt của một số người nhất định (tạm gọi là người A) với chất lượng cao được thay thế hoàn toàn bằng khuôn mặt của một người khác (người B). Ảnh nén của A được đưa vào bộ giải mã của B. Bộ giải mã sau đó tái tạo lại khuôn mặt của người B với biểu cảm và hướng khuôn mặt của người A. Quá trình này được thực hiện liên tục, chi tiết đến khi cho ra sản phẩm “thật” nhất.

 

Thủ đoạn của các đối tượng lợi dụng deepfake

Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã phần nào cảnh giác với chiêu trò lừa đảo tin nhắn mượn tiền, các đối tượng đã sử dụng chiêu lừa đảo tinh vi hơn, lợi dụng công nghệ Deepfake để làm giả cuộc gọi video nhằm chiếm đoạt tài sản. Cụ thể, thông qua mạng internet, các đối tượng đã thu thập hình ảnh, giọng nói của người dùng trên mạng xã hội (facebook, zalo…); sử dụng công nghệ Deepfake để tạo ảnh động, video giả mạo người dùng đang nói chuyện trực tuyến với cùng khuôn mặt, giọng nói và cách xưng hô.

Thủ đoạn của các đối tượng là tạo lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng, kết bạn với nạn nhân có trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản sẵn có. Trong một số trường hợp, các đối tượng còn có thể chiếm đoạt tài khoản mạng xã hội của người dân để trực tiếp nhắn tin cho các nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng truyền tải Deepfake video có sẵn lên kênh video call, khiến nạn nhân nhận ra hình ảnh và giọng nói của người quen từ đó không mảy may nghi ngờ mà thực hiện chuyển tiền theo yêu cầu từ phía đối tượng. Ngoài ra, đối tượng còn có thể sử dụng App chuyển đổi nhân vật có sử dụng phần mềm Deepfake để nói chuyện trực tiếp nạn nhân trong các cuộc gọi video. Nhưng để sử dụng phương thức này, đòi hỏi cần có những trang thiết bị có cấu hình cao cũng như một thời gian dài để thu thập hết các thông tin về nạn nhân.

Với công nghệ Deepfake, video giả mạo có độ chính xác rất cao, rất khó để phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện. Để che lấp khuyết điểm này, các đối tượng thường tạo ra những video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video có tín hiệu chập chờn do khu vực phủ sóng di động/wifi yếu để nạn nhân khó phân biệt thật giả. Nếu nạn nhân cẩn thận gọi video lại để kiểm chứng, chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Một số cách phòng tránh hiệu quả lừa đảo lợi dụng Deepfake

Để không trở thành nạn nhân của các chiêu trò lừa đảo qua mạng xã hội nói chung và các chiêu trò sử dụng công nghệ Deepfake để lừa đảo nói riêng, người dân sử dụng mạng xã hội cần luôn tỉnh táo, cảnh giác. Khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Tốt hơn hết, hãy bình tĩnh gọi điện thoại trực tiếp cho người thân để xác minh mà không qua các ứng dụng như Zalo, Messenger, Viber, Telegram… thậm chí gặp mặt trực tiếp khi có người cần hỏi vay tiền.

Bên cạnh đó, người dân nên cân nhắc kỹ lưỡng trước khi click những đường link lạ và không rõ xuất xứ trên mạng xã hội để phòng tránh việc các đối tượng xấu đánh cắp tài khoản. Việc bảo vệ tài khoản mạng xã hội của bản thân và thiết lập các cơ chế bảo mật thông tin cũng là một trong những cách hiệu quả với các chiêu trò của tội phạm mạng.

Nếu bỗng nhiên khi nhận được một cuộc gọi video nhờ chuyển tiền, người dân cần đánh giá các yếu tố để phòng tránh cuộc gọi Deepfake, cụ thể:

+ Khuôn mặt nhân vật thiếu tính cảm xúc và khá “đơ” khi nói.

+ Tư thế của nhân vật trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau; Màu da bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí;

+ Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh; Tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi…

Trên thị trường phổ thông, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo nên clip do AI tạo nên thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh và hình ảnh không cao. Trong những clip đó, khuôn mặt nhân vật thường khá “cứng” và ít cảm xúc hơn tự nhiên, hình thể cũng hạn chế di chuyển so với clip thông thường. Do đó, một trong những cách thông dụng để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không là hãy yêu cầu họ quay mặt sang bên các góc 90 độ. Ngoài ra, còn có phương pháp khác là yêu cầu người gọi đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn từ đó bộc lộc một số yếu tố có phần bất thường, “kì dị”.

 

Khi thực hiện quay các góc 90 độ và che bàn tay lên mặt thì các yếu tố bất thường sẽ lộ ra khi thực hiện cuộc gọi Deepfake

Công nghệ luôn là một quá trình phát triển không ngừng và các công nghệ giúp Deepfake ngày càng giống thật hơn sẽ đến trong thời gian gần, đòi hỏi giải pháp chống Deepfake cũng phải cải tiến liên tục để có thể phát hiện ra. Vì vậy, người dân nên cập nhật kiến thức về trí tuệ nhân tạo (AI) và hạn chế chia sẻ công khai quá nhiều hình ảnh, clip cá nhân lên các trang mạng xã hội để tránh trường hợp bị kẻ xấu lợi dụng hình ảnh vào mục đích xấu.

Xổ số miền Bắc