Lo ngại mất kiểm soát từ các ứng dụng Deepfake AI – NCS – Công ty Cổ phần Công nghệ An ninh mạng Quốc gia Việt Nam
An ninh Thủ đô – Theo các chuyên gia công nghệ, các ứng dụng Deepfake AI đang ngày càng phổ biến, thậm chí gây lo ngại về việc mất kiểm soát. Các đối tượng xấu có thể lợi dụng ứng dụng này để thực hiện hành vi lừa đảo.
Để hạn chế bị lừa đảo bởi Deepfake, người dùng không nên chuyển tiền cho tài khoản lạ
Deepfake xuất hiện từ lâu nhưng gần đây lại nổi lên vì có không ít nạn nhân của trò giải trí này. Lúc đầu, các ứng dụng này được tạo ra với mục đích “hoán đổi khuôn mặt” giúp người sử dụng có thể dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng.
Đây có thể coi là bước tiếp theo của trào lưu chế ảnh, lồng tiếng hài hước cho clip từng “gây sốt” trong thời gian trước đây.
Tuy nhiên, những kẻ lừa đảo đã lợi dụng các ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ.
Theo ông Vũ Ngọc Sơn- Giám đốc kỹ thuật Công ty Công nghệ An ninh mạng Quốc gia Việt Nam (NCS), những công ty cung cấp phần mềm Deepfake đang cho rằng ứng dụng của họ không phải sinh ra với mục đích xấu, nó đơn thuần là ứng dụng phục vụ giải trí. Trước Deepfake, rất nhiều ứng dụng chụp ảnh tĩnh cho phép người dùng có thể chụp ảnh dưới hình dáng của các nhân vật hoạt hình hoặc siêu sao.
Deepfake là một cải tiến mới thay vì chỉ có ảnh tĩnh thì nhân vật được chế tạo từ deepfake sống động hơn, hấp dẫn hơn, có thể có những pha hành động, diễn xuất như thật, thậm chí có cả giọng nói khớp với từng khuôn mặt.
Tuy nhiên vì công nghệ này lại được sử dụng vào những mục đích xấu nhiều hơn nên gần đây khi nhắc đến Deepfake là người ta nghĩ đến công cụ xấu.
Vậy có cách nào để người dùng phân biệt được một video sử dụng Deepfake hay không nhằm tránh bị kẻ gian lừa đảo?
Do năng lực tính toán của các ứng dụng Deepfake chưa thực sự trở nên hoàn hảo nên các clip chế từ Deepfake thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Dễ nhận thấy nhất là khuôn mặt khá cứng và ít cảm xúc hơn. Hình thể của nhân vật trong Deepfake cũng sẽ ít di chuyển hơn, đặc biệt là ít quay ngang ngửa mặt hoặc cúi mặt so với các clip thông thường, càng không có các hành động đưa tay dụi mặt hay che mặt vì AI sẽ xử lý lỗi khi khuôn mặt bị che đi 1 phần.
“Vì vậy, nếu để ý kỹ có thể phát hiện ra được. Người dùng không nên tin vào các clip có thời lượng ngắn, chất lượng clip thấp, nhoè, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, khuôn mặt không quay ngang ngửa, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ”- ông Vũ Ngọc Sơn nói.
Do Deepfake được tạo ra bằng AI nên sẽ có những “điểm yếu” tồn tại như ánh sáng phản chiếu từ võng mạc của nhân vật không đều ở 2 mắt, đổ bóng ánh sáng không tự nhiên, biểu cảm khuôn mặt thiếu tự nhiên, không đồng bộ, cảm xúc trong giọng nói không tự nhiên…
Tất cả những bất thường này tuy có thể khó quan sát với người thường nhưng nếu sử dụng các thuật toán trí tuệ nhân tạo AI khác thì có thể phát hiện ra được. Từ đó đã có những giải pháp công nghệ AI để phát hiện ra các clip được tạo từ Deepfake. Tuy nhiên các công nghệ Anti DeepFake này chưa phổ biến và cách dùng phức tạp hơn so với các ứng dụng tạo Deepfake.
Ông Vũ Ngọc Sơn cũng khuyến cáo người dùng nên cảnh giác, bằng cách không tin tưởng nếu nhận được các clip hoặc video call ngắn, chất lượng hình ảnh hoặc âm thanh không tốt. Kiểm tra lại bằng cách gọi điện trực tiếp bằng điện thoại thông thường;
Yêu cầu người gọi đưa tay lên mặt hoặc quay trái, quay phải (giống như bạn thực hiện eKYC); Trao đổi càng nhiều càng tốt với người gọi để đảm bảo cuộc gọi là thật chứ không phải là đang nói chuyện với một video được ghi hình sẵn.
Đặc biệt, không nên chuyển tiền, gửi thông tin vào các địa chỉ lạ, tài khoản lạ.
Nguồn: An ninh Thủ đô