An toàn số cuộc chiến không ngừng: Khi A.I. tiếp sức

VĂN KHÁNH // TRUNG TÂM TIN TỨC HTV 14/1/2025, 21:00

(HTV) - Trí tuệ nhân tạo và deepfake trở thành công cụ nguy hiểm của tội phạm mạng. Nạn nhân bị lừa qua cuộc họp video, cuộc gọi dùng deepfake, gây thiệt hại lớn.

Chuyên gia cảnh báo cần nâng cao cảnh giác, xác minh kỹ danh tính và thông tin trước khi thực hiện giao dịch trực tuyến.

Trong thời đại công nghệ 4.0, trí tuệ nhân tạo (A.I.) và deepfake đã trở thành những công cụ mới và nguy hiểm trong tay tội phạm mạng, và bị lợi dụng để thực hiện hành vi lừa đảo tinh vi hơn bao giờ hết.

Một trong những vụ việc nổi bật được đề cập là trường hợp một nhân viên tài chính tại Hồng Kông bị lừa chuyển 25 triệu đô-la Mỹ thông qua một cuộc họp video được tạo ra bằng deepfake. Các đối tượng đã sử dụng công nghệ này để tạo ra hình ảnh giả mạo của giám đốc tài chính và các đồng nghiệp, khiến nạn nhân tin tưởng và thực hiện giao dịch.

Trí tuệ nhân tạo (A.I.) và deepfake đã trở thành những công cụ mới và nguy hiểm trong tay tội phạm mạng

Pavel Goldman-Kalaydin - Trưởng ban AI/ML của công ty phần mềm Sumsub, nhận định: “Chúng đã chọn thời điểm buổi sáng để gọi, khi người thư ký này chưa tỉnh ngủ. Anh ta có thể đã thấy lạ khi sếp mình gọi video với khung cảnh khác lạ hơn mọi khi, nhưng khi một vài đồng nghiệp khác mà anh ta biết cũng tham gia cuộc gọi, thì mọi nghi ngờ đều tan biến".

Deepfake không chỉ giới hạn trong lĩnh vực tài chính. Nó còn được sử dụng để tạo ra những video khiêu dâm giả mạo về người nổi tiếng, như trường hợp của nữ ca sĩ Taylor Swift, hay những cuộc gọi robot giả mạo Tổng thống Mỹ Joe Biden kêu gọi người dân không đi bỏ phiếu. Những thông tin sai lệch này được lan truyền rộng rãi, gây hoang mang dư luận và có thể ảnh hưởng đến an ninh quốc gia.

Tại Việt Nam, một nạn nhân đã chia sẻ về việc bị lừa đảo thông qua một cuộc gọi video có sử dụng deepfake. Đối tượng lừa đảo đã tạo ra hình ảnh và giọng nói giống hệt một người quen để dụ dỗ nạn nhân chuyển tiền.

Để nhận diện video có sử dụng deepfake, người dùng cần chú ý một số dấu hiệu như: thời gian cuộc gọi thường ngắn, khuôn mặt người gọi thiếu cảm xúc và không tự nhiên, chuyển động mắt và miệng bất thường, âm thanh không đồng nhất với khẩu hình miệng.

Tiến sĩ Võ Văn Khang, Phó Chủ tịch Hiệp hội An toàn thông tin Việt Nam (VNISA), nhấn mạnh: “Để chống lại việc này, ngoài việc chúng ta đã có hành lang pháp lý và đã khởi tố rất nhiều vụ án liên quan, thì ý thức về việc bảo vệ, tức là nâng cao khả năng về an toàn bảo mật thông tin cho các doanh nghiệp và các đơn vị cung cấp dịch vụ cũng rất quan trọng".

Trên phạm vi toàn cầu, nhiều quốc gia đã bắt đầu có những hành động cụ thể để kiểm soát A.I. và deepfake. Liên minh Châu Âu (EU) đã thông qua “Đạo luật A.I.” vào tháng 8 năm 2024, được xem là đạo luật đầu tiên trên thế giới bao gồm những nguyên tắc sâu rộng để bảo vệ con người trước A.I., đồng thời thúc đẩy đổi mới sáng tạo trong lĩnh vực này.

Tại Việt Nam, vấn đề kiểm soát A.I. và deepfake cũng đang được Quốc hội và Chính phủ quan tâm. Trong dự thảo Luật Công nghiệp công nghệ số, các quy định về trí tuệ nhân tạo (A.I.) đã được đưa vào, bao gồm định nghĩa, các nguyên tắc quản lý và phát triển. Tuy nhiên, nhiều ý kiến cho rằng cần nghiên cứu toàn diện hơn để xây dựng một đạo luật riêng về trí tuệ nhân tạo của Việt Nam.

Tại Việt Nam, vấn đề kiểm soát A.I. và deepfake cũng đang được Quốc hội và Chính phủ quan tâm.

Việc nâng cao nhận thức, trang bị kiến thức và kỹ năng nhận diện các thủ đoạn lừa đảo mới là vô cùng quan trọng.

Để bảo vệ bản thân trước các nguy cơ từ A.I. và deepfake, người dùng cần lưu ý:

  • Luôn xác minh danh tính kỹ lưỡng khi nhận được yêu cầu chuyển tiền hoặc cung cấp thông tin nhạy cảm.
  • Đặt câu hỏi bất ngờ để đảm bảo đó là người thật, không phải A.I.
  • Không truy cập vào bất kỳ liên kết lạ nào được gửi đến.
  • Hạn chế thông tin công khai trên các tài khoản mạng xã hội.

Cuộc chiến chống lại tội phạm sử dụng A.I. và deepfake đòi hỏi sự nỗ lực không chỉ từ cơ quan chức năng mà còn từ mỗi cá nhân. Việc nâng cao nhận thức, trang bị kiến thức và kỹ năng nhận diện các thủ đoạn lừa đảo mới là vô cùng quan trọng. Đồng thời, cần có sự hợp tác quốc tế chặt chẽ để xây dựng khung pháp lý và tiêu chuẩn chung trong việc quản lý và phát triển A.I.

Như lời nhắc nhở của các chuyên gia, trong thời đại công nghệ phát triển nhanh chóng, mỗi cá nhân cần “Chậm lại, kiểm tra tại chỗ, và dừng lại không gửi” khi thực hiện các hành vi liên quan trên mạng internet. Chỉ khi mỗi người đều ý thức được tầm quan trọng của an toàn thông tin và chủ động phòng tránh, chúng ta mới có thể xây dựng được một môi trường mạng an toàn và lành mạnh trong kỷ nguyên A.I.

>>> Xin mời quý vị đón xem Thời sự HTV lúc 20 giờ và Chương trình Thế giới 24G lúc 20 giờ 30 phút mỗi ngày trên kênh HTV9

 

Ý kiến của bạn: