Vô hiệu tấn công mạng được cá nhân hoá bởi AI?

(VietQ.vn) - AI được sử dụng để tinh chỉnh, nâng cấp các chiêu trò tấn công mạng khiến những người có kinh nghiệm về an ninh mạng cũng có thể “mắc bẫy”.
Nỗ lực đoàn kết, đồng lòng, phấn đấu thực hiện Tầm nhìn STAMEQ
Quy chuẩn kỹ thuật Quốc gia về an toàn sản phẩm vật liệu nổ công nghiệp - thuốc nổ AD1
Chủ động phòng tránh ngộ độc thực phẩm dịp Tết Nguyên đán
Mới đây, Kaspersky cảnh báo sau khi đơn vị này thực hiện và công bố nghiên cứu về các vụ tấn công mạng có yếu tố liên quan đến sự phát triển của trí tuệ nhân tạo (AI).
Cụ thể, các tổ chức phải đối mặt với các vụ tấn công mạng đã tăng gần gấp đôi trong 12 tháng qua. Mối đe dọa phổ biến nhất đến từ các vụ lừa đảo phishing (tấn công giả mạo). Đặc biệt, gần 50% đơn vị, cá nhân tham gia khảo sát dự đoán số lượng các vụ tấn công lừa đảo sẽ tăng đáng kể, trong bối cảnh tội phạm mạng ngày càng lợi dụng AI nhiều hơn.
Theo các chuyên gia của Kaspersky, trước đây, các vụ tấn công lừa đảo chủ yếu dựa vào việc phát tán những tin nhắn rập khuôn đến hàng ngàn người nhằm dụ dỗ một số người “sập bẫy”. Đến nay, với việc lợi dụng AI, hình thức lừa đảo đã thay đổi khi những email lừa đảo được cá nhân hóa một cách tinh vi trên quy mô lớn.
Các công cụ tích hợp AI có thể sử dụng thông tin công khai của cá nhân trên mạng xã hội, trang tuyển dụng hoặc website của các công ty, từ đó tạo ra những email được thiết kế riêng, đúng vai trò, sở thích và phong cách giao tiếp của từng cá nhân.
Chẳng hạn, một CFO có thể nhận được email lừa đảo sao chép giọng điệu và phong cách tin nhắn từ CEO, thậm chí email còn đề cập đến các sự kiện gần đây của công ty một cách chính xác. Mức độ tùy chỉnh tinh vi này khiến nhân viên rất khó phân biệt giữa tin nhắn thực với tin nhắn lừa đảo.
Lợi dụng AI khiến các cuộc tấn công mạng ngày càng phức tạp, tinh vi và khó xử lý.
Cùng với đó là công nghệ deepfake trong AI - vũ khí lợi hại được tội phạm mạng sử dụng để tạo ra các đoạn âm thanh và video giả mạo, mô phỏng giọng nói, ngoại hình của các nhà lãnh đạo, quản lý với mức độ chính xác đến kinh ngạc. Công nghệ deepfake ngày càng phát triển, các cuộc tấn công dưới hình thức này được dự đoán sẽ ngày một tràn lan và tinh vi hơn.
Với sự hỗ trợ của các công nghệ hiện đại trên, email lừa đảo tạo bằng AI có thể vượt qua vòng kiểm tra của phần mềm bảo mật. Các thuật toán học máy còn có thể kiểm tra và tinh chỉnh lừa đảo trong thời gian thực, nâng cao tỷ lệ “trót lọt” và biến chiêu thức lừa đảo ngày càng trở nên tinh vi.
Bên cạnh đó, để đối phó với các cuộc tấn công lừa đảo ngày càng tinh vi do AI hỗ trợ, các tổ chức cần áp dụng một cách tiếp cận chủ động và toàn diện.
Việc đào tạo thường xuyên để nâng cao nhận thức của nhân viên về an ninh mạng là bước đầu tiên, giúp họ nhận diện những dấu hiệu bất thường trong email hoặc thông điệp có thể tiềm ẩn rủi ro.
Các công cụ bảo mật hiện đại cũng đóng vai trò quan trọng, đặc biệt là những hệ thống có khả năng phát hiện bất thường trong nội dung và siêu dữ liệu, từ đó ngăn chặn các email lừa đảo trước khi chúng tiếp cận người dùng.
Song song với việc củng cố công nghệ, mô hình bảo mật "zero-trust" cần được áp dụng, đảm bảo chỉ những người thực sự cần thiết mới có quyền truy cập vào dữ liệu quan trọng. Ngay cả khi một lớp phòng vệ bị xuyên thủng, cấu trúc bảo mật phân tầng này sẽ giới hạn tối đa thiệt hại.
Quan trọng hơn, các doanh nghiệp cần duy trì sự kết hợp hài hòa giữa công nghệ tiên tiến và sự giám sát liên tục của con người. Đây chính là chìa khóa để xây dựng một mạng lưới bảo vệ vững chắc trước những mối đe dọa ngày càng phức tạp từ AI.
Thanh Hiền (t/h)