03/11/2025 - 08:46

AI và tội phạm mạng - Bài 1: Vũ khí mới trong tay tội phạm mạng 

Sự bùng nổ của trí tuệ nhân tạo (AI) đang mở ra một kỷ nguyên mới, nơi công nghệ không chỉ là động lực phát triển mà còn trở thành “vũ khí” trong tay tội phạm. Từ các vụ lừa đảo xuyên quốc gia đến những cuộc tấn công dữ liệu quy mô lớn, Việt Nam đang đối mặt với thách thức bảo vệ không gian số trong bối cảnh AI được sử dụng cả ở hai chiến tuyến: tấn công và phòng thủ.

Các đối tượng và tang vật vụ án lừa đảo qua mạng hơn 300 tỷ đồng bị bắt tại Campuchia. Ảnh: TTXVN phát

Trí tuệ nhân tạo đang giúp tội phạm mạng “tự động hóa” các chiêu thức lừa đảo, giả giọng nói, tạo khuôn mặt ảo và phân tích hành vi nạn nhân với tốc độ chưa từng có. Từ chuyên án 300 tỷ đồng bị triệt phá ở Lai Châu đến hàng loạt vụ việc tương tự trong tháng 10, Việt Nam đang chứng kiến sự trỗi dậy của tội phạm công nghệ cao, nơi ranh giới giữa con người và máy móc ngày càng bị xóa nhòa.

Khi AI trở thành “trợ thủ” của tội phạm mạng

Ngày 29/10, Công an tỉnh Lai Châu phối hợp Bộ Công an và lực lượng chức năng Campuchia triệt phá chuyên án lừa đảo xuyên quốc gia hơn 300 tỷ đồng, bắt 59 đối tượng người Việt. Đường dây do Sùng Thị Mải (sinh năm 1999, Lào Cai) cầm đầu, sử dụng AI để giả giọng nói, khuôn mặt, danh tính cùng các kịch bản lừa đảo được lập trình sẵn nhằm chiếm đoạt tiền của trên 8.000 nạn nhân.

Đại tá Phạm Hải Đăng, Phó Giám đốc Công an tỉnh Lai Châu nhận định: “Tội phạm mạng ngày nay không chỉ ẩn danh mà còn “tự động hóa” hành vi phạm tội nhờ AI. Chúng không cần xuất hiện nhưng có thể thao túng cả hệ thống qua giọng nói và dữ liệu ảo”.

Đáng chú ý, sự việc trên chỉ là một trong số các vụ được triệt phá liên tiếp gần đây. Chỉ riêng tháng 10/2025, lực lượng chức năng trên cả nước đã phát hiện, xử lý gần 400 vụ việc liên quan tội phạm công nghệ cao, trong đó hơn 60 % là các vụ lừa đảo trực tuyến, giả danh cơ quan chức năng hoặc sử dụng deepfake để chiếm đoạt tài sản.

Trong buổi tập huấn mới đây cho các cơ quan, doanh nghiệp, ông Ngô Minh Hiếu (Hiếu PC), Giám đốc Dự án chống lừa đảo, đồng thời là chuyên viên an ninh mạng tại Trung tâm Giám sát an toàn không gian mạng quốc gia, cho biết: “Chỉ cần vài đoạn hội thoại, AI có thể tái tạo giọng nói của bạn. Khi tin nhắn và cuộc gọi đều mang âm sắc quen thuộc, người dùng rất khó phân biệt đâu là thật”.

AI đang trở thành “trợ thủ” của tội phạm mạng. Ảnh minh họa

Tại sự kiện “BSides Hanoi 2025” với chủ đề “AI Hack You” trong tháng 10, ông Vũ Duy Hiền, Phó Tổng Thư ký kiêm Chánh Văn phòng Hiệp hội An ninh mạng quốc gia cũng từng cho biết, AI đang khiến hành vi phạm tội gần như “vô hình”: “Khi hệ thống bảo mật truyền thống chỉ dựa vào chữ ký số hay hành vi cố định, AI của tội phạm đã có thể thay đổi hàng trăm biến thể mỗi giờ”.

Theo Hiệp hội An toàn thông tin Việt Nam (VNISA), trong 9 tháng năm 2025, số vụ lừa đảo sử dụng AI tăng 40% so với 2024, tập trung ở các thủ đoạn: Giả danh cơ quan chức năng; dựng video, giọng nói deepfake; dụ dỗ đầu tư tiền ảo, thao túng qua chatbot AI; phishing cá nhân hóa, cài mã độc chiếm OTP.

Còn theo thống kê của Bộ Bộ Khoa học và Công nghệ, quý III/2025 ghi nhận hơn 6,5 triệu tài khoản bị đánh cắp, 4.000 tên miền phishing và 550.000 cuộc tấn công DDoS, mức tăng cao nhất 5 năm.

Việt Nam cần một “lá chắn AI”

Tại buổi chia sẻ chiến lược tăng cường sự hiện diện tại Việt Nam của Kaspersky ngày 29/10, ông Ngô Tấn Vũ Khanh, Giám đốc Quốc gia Kaspersky Việt Nam nhận định, AI không chỉ là rủi ro mà còn là cơ hội. Nếu được huấn luyện trên dữ liệu sạch, AI có thể giúp phát hiện sớm các cuộc tấn công, phân tích hành vi bất thường và cảnh báo tức thì. "Vấn đề là chúng ta phải đi nhanh hơn tội phạm", ông Ngô Tấn Vũ Khanh cho biết.

Thực tế, các doanh nghiệp và cơ quan tại Việt Nam đang bắt đầu khai thác AI để xây dựng “lá chắn” tự động. Nhiều ngân hàng, sàn thương mại điện tử đã triển khai hệ thống học máy để nhận diện hành vi giao dịch bất thường, phát hiện chiêu lừa “đánh cắp danh tính” trong vòng vài giây. Các mô hình AI này được huấn luyện trên dữ liệu người dùng Việt, giúp nhận ra đặc điểm hành vi gian lận đặc thù, từ thời điểm truy cập, thiết bị dùng đến cách nhập mật khẩu.

Ông Ngô Tấn Vũ Khanh, Giám đốc Quốc gia Kaspersky Việt Nam chia sẻ AI có thể giúp phát hiện sớm các cuộc tấn công. Ảnh: H.Y

Theo Bộ Khoa học và Công nghệ, năm 2025 là năm đầu tiên Việt Nam vận hành mạng lưới cảnh báo sớm dựa trên AI do Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC) phát triển. Hệ thống này có khả năng phát hiện 70% mã độc lừa đảo trước khi chúng lan rộng, giúp giảm đáng kể thiệt hại cho người dùng. Mỗi ngày, NCSC thu thập và xử lý hơn 20 triệu cảnh báo an ninh, từ đó huấn luyện lại mô hình AI để tăng khả năng nhận diện tấn công trong nước, một hình thức “AI học từ AI” trong phòng thủ mạng.

Cùng với đó, các doanh nghiệp an ninh mạng Việt Nam như CMC Cyber Security, VNCS, BKAV và Kaspersky Việt Nam đều đang đầu tư mạnh vào trung tâm giám sát an toàn (SOC) kết hợp AI, nơi hàng nghìn dữ liệu bất thường được phân tích tự động. Theo thống kê nội bộ của VNISA, việc tích hợp AI đã giúp rút ngắn thời gian phát hiện sự cố trung bình từ 6 giờ xuống còn 45 phút, nâng hiệu quả ứng phó lên gấp ba lần so với giai đoạn 2022 - 2023.

Tuy nhiên, “lá chắn AI” không thể chỉ dựa vào công nghệ. Theo Hiếu PC, tội phạm AI đánh vào yếu tố con người. Khi người dùng mất cảnh giác, mọi tường lửa đều vô nghĩa. Không thể chống lại deepfake bằng phần mềm, mà phải bằng kiến thức và phản xạ số.

Thực tế, hơn 70% các vụ lừa đảo qua AI tại Việt Nam bắt nguồn từ việc nạn nhân tự cung cấp dữ liệu cá nhân qua mạng xã hội, từ hình ảnh, giọng nói đến giấy tờ tùy thân. Các chuyên gia cảnh báo, càng chia sẻ công khai, nguy cơ bị giả mạo càng cao. Vì vậy, chiến lược “lá chắn AI” không chỉ nằm ở tầng kỹ thuật mà còn phải đặt trọng tâm vào giáo dục nhận thức an toàn thông tin, coi đó là nền móng của phòng thủ mạng quốc gia.

Trong năm 2025, Bộ Khoa học và Công nghệ cùng nhiều doanh nghiệp bảo mật đã phối hợp triển khai chương trình “An toàn cùng AI”, một sáng kiến đào tạo trực tuyến hướng dẫn người dùng phát hiện tin giả, deepfake và hành vi lừa đảo thông minh. Chương trình thu hút hơn 2 triệu lượt tham gia, giúp phổ cập kỹ năng “đọc vị thông tin số” cho học sinh, sinh viên và người lớn tuổi, nhóm dễ bị tấn công nhất.

Người dân cần cảnh giác các hình thức lừa đảo hiện nay. Ảnh minh họa

Trên bình diện quốc tế, Công ước Hà Nội vừa được mở ký đã tạo hành lang hợp tác điều tra xuyên biên giới và chia sẻ chứng cứ điện tử - “đường cao tốc” giúp rút ngắn thời gian truy vết khi tội phạm đặt máy chủ ở nước ngoài.

Song song đó, các chuyên gia đề xuất Việt Nam cần chiến lược dài hạn về AI phòng thủ, bao gồm ba hướng chính: Đầu tư trung tâm AI quốc gia về an ninh mạng, tương tự mô hình của Singapore hoặc Hàn Quốc. Phát triển kho dữ liệu sạch để huấn luyện AI phòng thủ, bảo đảm tuân thủ quy định về bảo mật và quyền riêng tư. Đẩy mạnh hợp tác công - tư, kết nối lực lượng công an, doanh nghiệp công nghệ, ngân hàng và người dân trong mạng lưới phản ứng sự cố số.

Chuyên gia Vũ Duy Hiền (VNISA) cho rằng: “AI tội phạm chỉ mạnh khi chúng ta hành động riêng lẻ. Khi các tổ chức chia sẻ dữ liệu và cảnh báo sớm, mỗi người dân sẽ trở thành mắt xích của một “tường lửa xã hội”.

Cuộc đua giữa AI tấn công và AI phòng thủ đang diễn ra từng giờ. Khi kỹ thuật lừa đảo không ngừng biến hóa, “tường lửa sống” vẫn là sự tỉnh táo của mỗi cá nhân, bên cạnh những tiến bộ công nghệ đang hình thành “lá chắn số” đầu tiên của Việt Nam.

Bài cuối: Việt Nam trước cơ hội định hình "lá chắn số toàn cầu"

Hải Yên (Báo Tin tức và Dân tộc)

Chia sẻ bài viết