Theo các chuyên gia bảo mật, lừa đảo sử dụng công nghệ Deepfake rất nguy hiểm, tuy nhiên có những cách để người dùng nhận biết video sử dụng công nghệ ?
?ng d???ng trí tuệ nhân tạo này, từ đó tránh bị các đối tượng xấu lừa.
Nguy cơ xuất hiện làn s&o
acute;ng lừa đảo dùng công nghệ Deepfake
Trong cảnh b&a
acute;o ph&a
acute;t ra ngày 24/3 vừa qua, Công an tỉnh Tuyên Quang cho hay, gần đây, trên không gian mạng đã xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi. Đ&o
acute; là c&a
acute;c đối tượng lừa đảo sử dụng công nghệ Deepfake (công nghệ ?
?ng d???ng tr&i
acute; tuệ nhân tạo - AI tạo ra c&a
acute;c sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ ch&i
acute;nh x&a
acute;c rất cao) để thực hiện cuộc gọi video giả mạo người thân vay tiền, giả làm con c&a
acute;i đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đ&o
acute;ng học ph&i
acute; hay c&o
acute; thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…
Những ngày gần đây, Công an một số địa phương kh&a
acute;c như Hà Nội, Th&a
acute;i Nguyên cũng đã tiếp tục c&o
acute; cảnh b&a
acute;o về chiêu thức lừa đảo chiếm đoạt tài sản trên không gian mạng lợi dụng công nghệ Deepfake.
Công an một số tỉnh, thành phố đã ph&a
acute;t cảnh b&a
acute;o về hình thức lừa đảo sử dụng công nghệ Deepfake. (Ảnh minh họa: Internet)
Trong chia sẻ tại hội thảo chủ đề “An ninh mạng trên không gian số - Xu hướng và cơ hội” được Học viện Công nghệ Bưu ch&i
acute;nh Viễn thông (PTIT) tổ chức ngày 27/3, chuyên gia Ngô Minh Hiếu, đồng s&a
acute;ng lập dự &a
acute;n ChongLuaDao.vn và Threat Hunter, Trung tâm Gi&a
acute;m s&a
acute;t an toàn không gian mạng quốc gia cho biết, video Deepfake mới xuất hiện tại Việt Nam nhưng trên thực tế chiêu thức lừa đảo, giả mạo sử dụng công nghệ ?
?ng d???ng AI này đã được c&a
acute;c nh&o
acute;m tội phạm quốc tế &a
acute;p dụng từ khoảng 2 – 3 năm gần đây.
Chuyên gia Ngô Minh Hiếu cũng phân t&i
acute;ch, trên không gian mạng đang c&o
acute; nhiều công cụ hỗ trợ c&a
acute;c đối tượng tạo ra c&a
acute;c video Deepfake. Tới đây, khi tội phạm mạng tại Việt Nam biết nhiều hơn c&a
acute;c c&a
acute;ch đ&a
acute;nh cắp video và hình ảnh, cắt gh&e
acute;p sau đ&o
acute; dùng những công cụ được hướng dẫn trên mạng để tạo Deepfake - thì l&u
acute;c đ&o
acute; sẽ diễn ra một làn s&o
acute;ng lừa đảo thế hệ 4.0 khiến nhiều người lâu nay rất kh&o
acute; bị lừa cũng trở thành nạn nhân.
“Những người tầm trung niên trở lên là đối tượng dễ bị lừa nhất vì họ thiếu nhận thức về an toàn thông tin, công nghệ và kh&o
acute; nhận biết kiểu lừa đảo tinh vi này”, chuyên gia Ngô Minh Hiếu chia sẻ thêm.
Chuyên gia Ngô Minh Hiếu chia sẻ với c&a
acute;c sinh viên PTIT về c&a
acute;c hình thức lừa đảo, trong đ&o
acute; c&o
acute; lừa đảo sử dụng Deepfake.
Bàn về vấn đề này, Gi&a
acute;m đốc Kỹ thuật Công ty NCS Vũ Ngọc Sơn cho hay, c&a
acute;c ?
?ng d???ng Deepfake đang ngày càng phổ biến, thậm ch&i
acute; gây lo ngại về việc mất kiểm so&a
acute;t. L&u
acute;c đầu c&a
acute;c ?
?ng d???ng này được tạo ra với mục đ&i
acute;ch “ho&a
acute;n đổi khuôn mặt” gi&u
acute;p người sử dụng c&o
acute; thể dễ dàng thay khuôn mặt, giọng n&o
acute;i của mình vào những nhân vật trong c&a
acute;c bộ phim nổi tiếng. C&o
acute; thể coi là bước tiếp theo của trào lưu chế ảnh, lồng tiếng hà
;i hước cho clip từng gây sốt trong thời gian trước đây.
Tuy nhiên, những kẻ lừa đảo đã lợi dụng c&a
acute;c ?
?ng d???ng Deepfake để làm ra c&a
acute;c clip c&o
acute; nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ. Việc công nghệ này lại được sử dụng vào những mục đ&i
acute;ch xấu nhiều hơn, nên gần đây khi nhắc đến Deepfake là mọi người thường nghĩ đến công cụ xấu.
C&a
acute;ch phòng tr&a
acute;nh lừa đảo dùng công nghệ Deepfake
Đề cập đến c&a
acute;ch phòng tr&a
acute;nh, chuyên gia Vũ Ngọc Sơn phân t&i
acute;ch, do năng lực t&i
acute;nh to&a
acute;n của c&a
acute;c ?
?ng d???ng Deepfake chưa thực sự trở nên hoàn hảo nên c&a
acute;c clip chế từ công nghệ này thường c&o
acute; dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Dễ nhận thấy nhất là khuôn mặt kh&a
acute; cứng và &i
acute;t cảm x&u
acute;c hơn. Hình thể của nhân vật trong Deepfake cũng sẽ &i
acute;t di chuyển hơn, đặc biệt là &i
acute;t quay ngang ngửa mặt hoặc c&u
acute;i mặt so với c&a
acute;c clip thông thường, càng không c&o
acute; c&a
acute;c hành động đưa tay dụi mặt hay che mặt vì AI sẽ xử l&y
acute; lỗi khi khuôn mặt bị che đi một phần. Do đ&o
acute;, nếu để &y
acute; kỹ c&o
acute; thể ph&a
acute;t hiện ra được.
“
Ngư??i dùng không nên tin vào c&a
acute;c clip c&o
acute; thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt &i
acute;t biểu cảm, cơ thể &i
acute;t di chuyển, khuôn mặt không quay ngang ngửa, giọng n&o
acute;i không trơn tru hoặc qu&a
acute; đều đều, không ngắt nghỉ”, chuyên gia Vũ Ngọc Sơn khuyến nghị.
Vị chuyên gia đến từ Công ty NCS cũng cho hay, điều quan trọng nhất là người dùng cần nâng cao cảnh gi&a
acute;c. Cụ thể là, không tin tưởng nếu nhận được c&a
acute;c clip hoặc video call ngắn, chất lượng hình ảnh hoặc âm thanh không tốt; kiểm tra lại bằng c&a
acute;ch gọi điện trực tiếp bằng điện thoại thông thường; yêu cầu người gọi đưa tay lên mặt hoặc quay tr&a
acute;i, quay phải; trao đổi càng nhiều càng tốt với người gọi để đảm bảo cuộc gọi là thật chứ không p
hải là đang n&o
acute;i chuyện với một video được ghi hình sẵn. Đặc biệt là, người dùng không chuyển tiền, gửi thông tin vào c&a
acute;c địa chỉ, tài khoản lạ.
Đồng quan điểm, chuyên gia Ngô Minh Hiếu khuyến nghị, để tr&a
acute;nh bị lừa thì tốt nhất là người dùng cần tỉnh t&a
acute;o, nâng cao cảnh gi&a
acute;c. khi c&o
acute; một ai đ&o
acute; trên mạng xã hội, trong danh s&a
acute;ch bạn bè của mình mà tự nhiên hỏi mượn tiền hay gửi link lạ thì không nên vội, mà hãy bình tĩnh, kiểm chứng và nên x&a
acute;c thực lại.
“
Ngư??i dùng c&o
acute; thể chủ động x&a
acute;c thực bằng c&a
acute;ch gọi điện thoại trực tiếp hoặc facetime &i
acute;t nhất trên 1 ph&u
acute;t, sau đ&o
acute; giả vờ đặt ra những câu hỏi c&a
acute; nhân mà chỉ c&o
acute; bạn và người kia mới biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà c&o
acute; t&i
acute;nh chuẩn x&a
acute;c cao”, chuyên gia Ngô Minh Hiếu đưa ra lời khuyên.
Chiêu lừa đảo “con đang cấp cứu”: Thông tin về học sinh lộ lọt từ đâu?
Theo c&a
acute;c chuyên gia, hạn chế trong nhận thức đảm bảo an toàn thông tin của phụ huynh và c&a
acute;c trường là một trong những nguyên nhân dẫn đến lộ lọt thông tin về học sinh cho đối tượng xấu tận dụng để lừa đảo.
Nhà mạng nhắn tin c&o
acute; định danh để tr&a
acute;nh kh&a
acute;ch hàng bị lừa đảo
Cục Viễn thông đề nghị nhà mạng triển khai c&a
acute;c biện ph&a
acute;p truyền thông qua nhắn tin thông b&a
acute;o đề nghị chuẩn h&o
acute;a thông tin thuê bao p
hải c&o
acute; định danh, hoặc số điện thoại chăm s&o
acute;c kh&a
acute;ch hàng để tr&a
acute;nh việc bị mạo danh.
Tội phạm mạng lợi dụng sự cả tin và lòng tham của con người để lừa đảo
Dù c&o
acute; kh&a
acute; nhiều biện ph&a
acute;p công nghệ đã được thực hiện, tội phạm mạng vẫn lừa đảo thành công do sự cả tin và lòng tham của con người.
Nguồn bài viết : blackjack