Khi thế giới đối mặt với hàng triệu cuộc lừa đảo qua điện thoại bằng A.I.

HUY PHONG - PHONG TRẦN - LAN HƯƠNG // TRUNG TÂM TIN TỨC HTV 6/10/2023, 21:00

(HTV) - Cùng với sự phát triển của công nghệ trí thông minh nhân tạo A.I., những cuộc gọi lừa đảo qua điện thoại, sử dụng A.I., đang gia tăng chóng mặt, khiến rất nhiều nạn nhân mất số tiền lớn.

Sử dụng những app A.I. mới nhất, mà ai cũng dễ dàng tiếp cận, bọn lừa đảo tạo ra những giọng nói giả mạo người thân quen của nạn nhân, rất khó phân biệt thật - giả, để thực hiện hành vi lừa đảo.

Cuộc gọi kinh hoàng từ số lạ

Một phụ nữ ở bang Arizona kể lại trải nghiệm khiến cô hoảng hồn. Tháng 1/2023, Jennifer de Stefano nhận được một cú điện thoại từ một số máy lạ. Cô định không trả lời, nhưng Brianna, đứa con gái 15 tuổi của cô, đang đi chơi trượt tuyết ở xa; nên cô lo ngại cuộc gọi có thể là để thông báo tình huống khẩn cấp của con gái, nên cô đã bắt máy.

Jennifer cho biết: “Và tiếng con gái tôi vang lên, nó khóc. Tôi hỏi: Có chuyện gì vậy con? Nó nói: Mẹ ơi, những kẻ xấu này đang bắt giữ con, cứu con với, cứu con với”.

Một người đàn ông yêu cầu cô nộp 1 triệu đô la tiền chuộc để đổi lấy Brianna, sau đó giảm xuống còn 50 ngàn đô la. Hắn ta không muốn nhận tiền qua tài khoản ngân hàng, mà yêu cầu để cho hắn ta đến chở cô đi và lấy tiền. Lúc này, Jennifer bắt đầu hoảng sợ và hét lên để cầu cứu. 

Jennifer de Stefano và con gái kể lại trải nghiệm kinh hoàng

Rất may là Jennifer còn tỉnh trí, và gọi điện cho chồng cô, người đi cùng con gái, để xác minh, và biết rằng con gái của cô vẫn an toàn.

Brianna, con gái của Jennifer, cho biết:  “Tôi nghĩ rằng những người đó muốn đặt bẫy mẹ tôi, muốn bắt mẹ tôi. Có lẽ bọn chúng đã thu thập thông tin về tôi. Chúng biết tôi đang đi chơi xa, nên đã tạo ra một cuộc gọi đáng tin như vậy. Tôi thực sự hoảng sợ”.

Jennifer deStefano ra trước Quốc hội, kêu gọi chính quyền Mỹ hành động nhiều hơn để chống nạn lừa đảo bằng A.I.

Lo ngại rằng người khác có thể trở thành nạn nhân của trò lừa đảo bằng giọng giả do A.I. tạo ra, Jennifer de Stefano đã ra điều trần trước Quốc hội Mỹ để kể về trải nghiệm kinh hoàng của mình, và kêu gọi Chính phủ phải hành động nhiều hơn để xử lý bọn lừa đảo.

Tuy nhiên, không phải ai cũng tỉnh trí và may mắn như Jennifer de Stefano. Theo Công ty Truecaller, một công ty làm ra một app ngăn chặn các cuộc gọi rác, ước tính gần 70 triệu người Mỹ đã bị mất tiền do bị lừa đảo qua điện thoại trong năm 2022. Và những kẻ lừa đảo đó đã kiếm được tổng cộng gần 40 tỉ đô la. Nạn nhân thuộc nhiều độ tuổi, nhưng đa số là người già - những người không rành về công nghệ nhất. Kịch bản thường gặp là bọn lừa đảo gọi cho các cụ ông, cụ bà này, thông báo con cháu của họ bị tai nạn, hoặc gây tai nạn và cần một số tiền lớn để giải quyết gấp. Bọn chúng yêu cầu các cụ không gọi báo cho cha mẹ của các cháu, với lý do sợ ba mẹ la mắng.

 Để tìm hiểu cách thức của bọn lừa đảo, Joanna Stern, một biên tập viên của Hãng truyền thông Wall Street Journal đã thực hiện một cuộc thí nghiệm. Cô phối hợp với 2 Công ty Công nghệ A.I. để tạo ra một bản sao ảo của cô, thể hiện ở cả hình ảnh video và giọng nói. Sau đó đưa bản sao ảo này qua nhiều bài kiểm tra. Kết quả của cuộc kiểm tra khiến cô và những người tham gia phải kinh ngạc, và không khỏi lo lắng.

Nhà báo Joanna Stern thách thức A.I. tạo ra bản sao ảo của cô

Joanna Stern đồng ý cho hai Công ty A.I., là ElevenLabs và Synthesia, thu hình cô đang thực hiện công việc như đang hiện dẫn một bản tin. Sau đó họ thu âm giọng đọc của cô. Họ cũng sử dụng những video mà trong đó cô phát biểu. Những dữ liệu này được đưa vào cho A.I. tổng hợp. Chỉ 3 tuần sau, họ tạo ra một MC ảo, là bản sao của Joanna.

Giờ đây, chỉ cần nhập văn bản vào app A.I., là phiên bản ảo của Joanna sẽ nói bất cứ điều gì mà người gõ văn bản muốn.

Giọng giả được tạo ra từ những đoạn ghi âm phát biểu của Joanna Stern, tổng hợp từ những đoạn ghi âm và video có cô phát biểu

Trong thử thách đầu tiên, Joanna sẽ gọi điện cho một chuyên gia công nghệ, và bí mật cho người đó nghe đoạn ghi âm do A.I. tạo ra, để xem người đó có nhận ra đó là giọng giả hay không. Người nhận cuộc gọi là Evan Spiegel, CEO của ứng dụng chat nổi tiếng Snapchat. Công ty của anh cũng vừa cho ra mắt chatbot My A.I.. Kết quả cho thấy Evan Spiegel không hề nhận ra giọng giả, mà vẫn tưởng đó là giọng thật của Joanna Stern.

Dùng A.I. thử nói chuyện với CEO Snapchat

Evan Spiegel, CEO của Snapchat, không nhận ra đó là giọng giả

Ở bài kiểm tra 2, Joanna dùng phiên bản MC ảo của chính mình để tạo ra một video và đăng trên Tiktok. MC ảo đã không lừa được hệ thống nhận dạng của Tiktok. Nó chỉ ra những điểm bất hợp lý của biểu cảm gương mặt, của tay.

Trong bài kiểm tra 3, Joanna dùng giọng do A.I. tạo ra để thử thách hệ thống an ninh của ngân hàng.

Thay vì hỏi những câu hỏi để kiểm tra an ninh, một số ngân hàng tại Mỹ kiểm tra giọng nói của khách hàng, trước khi chuyển máy, để cho khách hàng nói chuyện với nhân viên (người thật) của phòng chăm sóc khách hàng. Joanna thử kiểm tra ngân hàng Chase Bank. Joanna cho hệ thống xác minh bằng giọng nói của ngân hàng nghe giọng giả của cô. Thế là hệ thống chuyển máy cho cô nói trực tiếp với nhân viên (người thật).

Giọng nói A.I. thử thách hệ thống an ninh ngân hàng

Cách để không bị lừa qua điện thoại

Thử nghiệm của nhà báo Joanna Stern cho thấy giọng giả do A.I. tạo ra khiến người ta ngày càng khó phân biệt thật giả. Đến cả chuyên gia công nghệ cũng bị lừa. Vậy làm thế nào để không bị sập bẫy trò lừa đảo ngày càng tinh vi này? Sau đây là một số khuyến cáo của các chuyên gia: 

Bước đầu tiên cần làm là không chia sẻ thông tin riêng tư lên mạng.

Để có được sự tiện lợi trong thông tin liên lạc, người dùng các thiết bị điện thoại thông minh đã đánh đổi sự riêng tư của mình. Người ta chia sẻ quá nhiều thông tin về đời sống riêng tư lên mạng xã hội. Họ chia sẻ họ học trường nào, làm việc ở đâu, con cái họ học trường nào, đi đâu, làm việc gì, quen biết những ai,...Những ai để lộ những thông tin như thế rất dễ trở thành con mồi ngon của bọn lừa đảo. Bọn chúng sử dụng thông tin để ngụy tạo ra những kịch bản, những tình huống khiến nạn nhân cảm thấy rất đáng tin. Kịch bản giả tạo này được thông báo bằng một giọng giả mạo người thân của nạn nhân.

Quá trình tạo ra một giọng giả rất dễ dàng và nhanh chóng. Bọn lừa đảo lên mạng xã hội, và tìm một đoạn âm thanh có nạn nhân phát biểu. Chúng vào một website chuyên sao chép giọng nói bằng A.I., chỉ sau vài chục giây là chúng có được bản sao giọng nói của nạn nhân. Sau đó, chúng nhập văn bản có nội dung mà chúng muốn giọng giả này nói. Chỉ mất vài phút là chúng có một đoạn ghi âm giả giọng, nói bất kỳ nội dung nào bọn chúng muốn.

Các chuyên gia khuyến cáo không chia sẻ thông tin riêng tư lên mạng xã hội. Hacker có thể dùng những thông tin đó để tạo dựng kịch bản lừa đảo

Không trả lời điện thoại nếu đó là số lạ. Hãy để cho người gọi gửi lời nhắn vào hộp thư thoại, hoặc để lại tin nhắn, nếu bạn muốn.

Về tin nhắn, không nhấp vào những đường liên kết trong những tin nhắn từ người lạ.

Nếu người lạ gọi cho mình, nói rằng đang giải quyết vụ việc của mình, thì hãy hỏi người đó là số hồ sơ vụ việc của mình là số mấy. Nếu người đó tự xưng là nhân viên ngân hàng, thì mình hỏi người gọi là số thẻ nhân viên của họ là số mấy. Sau đó, cúp máy và gọi vào đường dây nóng của ngân hàng, số điện thoại được ghi trên thẻ tín dụng, hỏi xe nhân viên có số thẻ như thế là nhân viên nào.

Hãy gọi người thân để kiểm tra. Nếu người lạ gọi báo rằng người thân của mình gặp nguy hiểm, hãy gọi cho người thân đó, hoặc gọi cho người thân khác để xác minh.

Kiểm tra người gọi bằng cách hỏi những thông tin mà chỉ có người trong gia đình mới biết. 

Hiện nay Chính phủ nhiều nước và các nhà công nghệ hàng đầu đều nhất trí với nhau về sự cần thiết phải tăng cường quản lý của Nhà nước đối với A.I.. Tuy nhiên, trong thời gian chờ đợi sự hoàn thiện trong việc quản lý A.I., người dân cần nâng cao cảnh giác trước những trò lừa đảo đang ngày càng tinh vi này. 

>>> Xin mời quý vị đón xem Thời sự HTV lúc 20 giờ và Chương trình Thế giới 24G lúc 20 giờ 30 phút mỗi ngày trên kênh HTV9

 

Ý kiến của bạn: