Tin tức

CẢNH BÁO VỀ CÔNG NGHỆ DEEPFAKE

Các đối tượng lừa đảo thường sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác...

Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam nhận được phản ánh của ông Hồ Huy, Chủ tch Tập đoàn Mai Linh về việc các đối tượng sử dụng công nghệ Deepfake để cắt ghép, phát tán các hình ảnh nhạy cảm của Ông trên mạng xã hội nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân của ông Huy, gây ảnh hưởng lớn đến hoạt động kinh doanh của Tập đoàn Mai Linh.

Phản ánh của ông Hồ Huy đã được Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam chuyển các cơ quan chức năng xem xét, xử lý theo quy định của pháp luật.

Công nghệ Deepfake

Công nghệ Deepfake là một công nghệ cho phép tạo ra các video, hình ảnh hoặc âm thanh giả mạo với độ chân thực cao. Công nghệ này được phát triển dựa trên trí tuệ nhân tạo (AI), sử dụng các thuật toán học máy để phân tích và tái tạo các đặc điểm của khuôn mặt, giọng nói, cử chỉ của một người. Deepfake có thể được sử dụng cho nhiều mục đích khác nhau, bao gồm giải trí, giáo dục, truyền thông. Tuy nhiên, công nghệ này cũng có thể bị lợi dụng cho mục đích xấu, như lừa đảo, bôi nhọ, phá hoại…

 

Ảnh minh họa (nguồn Internet)

Các thủ đoạn lừa đảo bằng Deepfake

Các đối tượng lừa đảo thường sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác…

Một số thủ đoạn lừa đảo phổ biến bằng Deepfake bao gồm:

  • Lừa đảo tài chính: Các đối tượng sử dụng Deepfake để tạo ra các video hoặc cuộc gọi giả mạo của người nổi tiếng, chính trị gia hoặc nhân vật có ảnh hưởng để yêu cầu nạn nhân chuyển tiền.
  • Bôi nhọ xúc phạm danh dự: Các đối tượng sử dụng Deepfake để tạo ra các video hoặc hình ảnh giả mạo nhằm bôi nhọ xúc phạm danh dự của người khác, khiến họ bị mất uy tín, mất việc làm hoặc bị xã hội xa lánh…
  • Phá hoại uy tín: Các đối tượng sử dụng Deepfake để tạo ra các video hoặc âm thanh giả mạo nhằm phá hoại uy tín của một tổ chức, doanh nghiệp, khiến họ bị mất khách hàng hoặc bị thiệt hại về kinh tế.

Cách nhận biết video, hình ảnh hoặc âm thanh Deepfake

Để nhận biết video, hình ảnh hoặc âm thanh Deepfake, người dùng có thể dựa vào một số dấu hiệu sau:

  • Các chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên: Các chi tiết trên khuôn mặt như mắt, mũi, miệng, lông mày, tóc,... hoặc giọng nói của người trong video, hình ảnh hoặc âm thanh có thể không tự nhiên, không phù hợp với ngữ cảnh.
  • Có các điểm bất thường trong video, hình ảnh hoặc âm thanh: Video, hình ảnh hoặc âm thanh có thể có các điểm bất thường như ánh sáng, bóng đổ, màu sắc không tự nhiên,...
  • Nội dung video, hình ảnh hoặc âm thanh không phù hợp với thực tế: Nội dung video, hình ảnh hoặc âm thanh có thể không phù hợp với thực tế, không phù hợp với tính cách, hành vi của người trong video, hình ảnh hoặc âm thanh.

Khuyến cáo của Trung tâm xử lý tin giả, thông tin xấu độc

Tuy vậy với sự phát triển của công nghệ hiện nay, các hình ảnh do AI tạo ra gần như đã không có sự khác biệt và rất khó để phân biệt nếu không sử dụng các công cụ phân tích. Vì vậy, để phòng tránh lừa đảo bằng Deepfake, Trung tâm xử lý tin giả, thông tin xấu độc  Việt nam khuyến cáo người dùng mạng internet cần lưu ý một số điều sau:

  • Cẩn trọng với các thông tin được chia sẻ trên mạng xã hội: Không nên tin tưởng ngay vào các thông tin được chia sẻ trên mạng xã hội, đặc biệt là các thông tin liên quan đến tài chính, danh dự hoặc uy tín của người khác.
  • Kiểm tra kỹ thông tin trước khi thực hiện các giao dịch tài chính: Khi nhận được yêu cầu chuyển tiền từ người khác, người dùng cần kiểm tra kỹ thông tin của người yêu cầu chuyển tiền, xác minh nguồn gốc của yêu cầu và chỉ chuyển tiền khi chắc chắn rằng người yêu cầu chuyển tiền là người đáng tin cậy.
  • Thường xuyên cập nhật các kiến thức về công nghệ: Người dùng cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này.