Thứ sáu, 22/11/2024

Cảnh báo hành vi ứng dụng AI, ghép mặt, giọng nói giống hệt người thân để lừa đảo

26/03/2023 8:00 AM (GMT+7)

Đặc điểm chung của những cuộc gọi video lừa đảo theo cách này thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi trong vùng sóng yếu hoặc wifi yếu để nạn nhân khó phân biệt thật, giả.


Cảnh báo hành vi ứng dụng AI, ghép mặt, giọng nói giống hệt người thân để lừa đảo - Ảnh 1.

Ảnh minh họa


Theo Công an tỉnh Tuyên Quang, gần đây, trên không gian mạng xuất hiện một phương thức lừa đảo chiếm đoạt tài sản rất tinh vi như sau: Các đối tượng lừa đảo sử dụng rất tinh vi công nghệ Deepfake - công nghệ ứng dụng trí tuệ nhân tạo - AI, để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả về người nào đó với độ chính xác rất cao.

 

Các đối tượng lừa đảo thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí, hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…

Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

"Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu, để nạn nhân khó phân biệt thật, giả. Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để thực hiện cuộc gọi lừa đảo" - Công an cảnh báo.

Theo khuyến cáo của lực lượng công an, đây là thủ đoạn lừa đảo rất mới, rất tinh vi. Người dân cần nâng cao cảnh giác, khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội.

Cùng với đó, cần bình tĩnh, gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber, Telegram…).

Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.


Hình ảnh nhân vật gọi video lừa đảo khá "trơ", giả tạo

Ông Ngô Minh Hiếu - chuyên gia kỹ thuật tại Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC) - cho biết, trung tâm có nhận được báo cáo về những vụ việc lừa đảo qua videocall từ năm ngoái đến nay.

Theo ông Hiếu, công nghệ trí tuệ nhân tạo đang giúp ích rất nhiều trong đời sống của con người. Tuy nhiên những kẻ xấu đã lợi dụng công nghệ AI để tạo ra hình ảnh sao chép giọng nói, từ việc chiếm đoạt tài khoản Facebook, Instagram... sau đó nghiên cứu tin nhắn, cách xưng hô, lịch sử giao dịch... để tạo ra những cuộc gọi giả và lừa tiền người thân, gia đình của tài khoản bị hack, cho đến gọi điện trực tiếp tới người bị hại để dựng lên những tình huống khẩn cấp cần chuyển tiền.

Cụ thể, sau khi hack được Facebook của nạn nhân, kẻ lừa đảo đã chủ động nhắn tin trước để mượn tiền, rồi chủ động gọi videocall tới nạn nhân với đoạn video Deepfake và tắt giữa chừng khoảng một vài giây, sau đó nói do bị mất sóng điện thoại... Lúc này, nạn nhân đã tin tưởng và chuyển khoản tiền vì bên kia đang cần mượn tiền gấp.

Chuyên gia Ngô Minh Hiếu lưu ý một dấu hiệu để nhận biết và phòng tránh cuộc gọi Deepfake, đó là khuôn mặt của nhân vật trong video thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau.

Những điều này có thể sẽ là điểm rất đáng nghi ngờ, chúng ta nên dừng lại để suy nghĩ. Bên cạnh đó, chúng ta cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí… tất cả điều này khiến video trông rất giả tạo và không tự nhiên.

Âm thanh cũng là một vấn đề có thể xảy ra trong video, có thể âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Cuối cùng, có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng cuộc gọi, bảo là mất sóng, sóng yếu...

"Các yếu tố kỳ lạ như trên là báo hiệu đỏ của Deepfake. Vì vậy, người sử dụng cần luôn cảnh giác và tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút. Sau đó đặt ra những câu hỏi cá nhân mà chỉ có mình và người kia biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao, dù sao cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này" - chuyên gia Ngô Minh Hiếu nói.


Nếu bị làm giả Deepfake, người sử dụng nên thông báo ngay lập tức cho mọi người biết và báo cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án chongluadao https://chongluadao.vn; đồng thời cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com.

Theo VietTimes 

Bình luận của bạn
(*) Nội dung bắt buộc cần có
Bình luận
Xem thêm bình luận

Nhập thông tin của bạn

Ngân hàng Thế giới đề xuất con đường mang tới tương lai thu nhập cao cho Việt Nam

Ngân hàng Thế giới đề xuất con đường mang tới tương lai thu nhập cao cho Việt Nam

Ngân hàng Thế giới (World Bank) vừa đưa ra lộ trình giúp Việt Nam hướng tới mục tiêu trở thành quốc gia thu nhập cao vào năm 2045.

Công nghiệp công nghệ thông tin trở thành ngành công nghiệp nền tảng để phát triển kinh tế số

Công nghiệp công nghệ thông tin trở thành ngành công nghiệp nền tảng để phát triển kinh tế số

Để thúc đẩy phát triển kinh tế số, Chính phủ đã đặt ra 4 nhiệm vụ, giải pháp trọng tâm, trong đó phát triển công nghiệp công nghệ thông tin trở thành ngành công nghiệp nền tảng

Chính sách Trump 2.0 có thể đẩy USD lên ngang giá với euro

Chính sách Trump 2.0 có thể đẩy USD lên ngang giá với euro

Công ty dịch vụ tài chính JPMorgan của Mỹ dự báo chỉ số USD Index có thể tăng thêm 7% trong vòng vài tháng tới. Trong khi đó, Barclays dự báo USD có thể ngang giá với đồng euro nếu ông Donald Trump thực hiện các biện pháp thuế quan mạnh mẽ để bảo vệ thị trường Mỹ.

Những dịch vụ hái ra tiền nhờ chị em đi làm đẹp sớm đón Tết

Những dịch vụ hái ra tiền nhờ chị em đi làm đẹp sớm đón Tết

Những ngày qua, các cơ sở làm đẹp phun môi, phun chân mày, chăm sóc da, trị nám… tại TP.HCM đang khá nhộn nhịp nhờ các khách hàng nữ tranh thủ đi làm đẹp sớm đón Tết.

Môi trường đầu tư hấp dẫn, Long An hút thêm vốn châu Âu

Môi trường đầu tư hấp dẫn, Long An hút thêm vốn châu Âu

Đoàn công tác xúc tiến đầu tư, thương mại tỉnh Long An qua châu Âu vừa ký kết 2 thỏa thuận về đầu tư dự án mới trị giá hơn 80 triệu USD.

 Ban chỉ đạo mới hợp nhất do ông Phan Văn Mãi đứng đầu có nhiệm vụ gì

Ban chỉ đạo mới hợp nhất do ông Phan Văn Mãi đứng đầu có nhiệm vụ gì

Ban chỉ đạo cải cách hành chính, Ban chỉ đạo chuyển đổi số và Ban chỉ đạo đề án 06 tại TP.HCM hợp nhất thành Ban chỉ đạo cải cách hành chính, chuyển đổi số và đề án 06 TP.HCM do ông Phan Văn Mãi Chủ tịch UBND TP.HCM làm Trưởng ban.