Ông Chad Skipper - chuyên gia về công nghệ bảo mật toàn cầu tại công ty phần mềm VMWare ở Australia - cho biết các email lừa đảo (phishing email) sử dụng ChatGPT hoặc các mô hình “máy học” ngôn ngữ tự nhiên tương tự để bắt chước ngôn ngữ và giọng điệu của các email chính thức trong các tổ chức, do đó rất khó để phân biệt với các email thật.
Ông Chad Skipper cho rằng đây là một cuộc chiến mới giữa tin tặc và ngành an ninh mạng và cuộc chiến này sẽ còn kéo dài. Theo ông Chad Skipper, tội phạm mạng đang sử dụng trí tuệ nhân tạo (AI) để xác định những lỗ hổng trong các công ty, tổ chức và ChatGPT, từ đó tiến hành các cuộc tấn công giả mạo tinh vi nhằm xâm nhập vào các tổ chức này.
Tấn công giả mạo (Phishing) là hình thức tấn công mạng mà tin tặc sử dụng các email hoặc các hình thức nhắn tin giả mạo khác để lừa người dùng nhấp vào các tài liệu có vẻ vô hại hoặc các đường link dẫn đến một trang web, từ đó phát tán phần mềm độc hại (Malware) lên các thiết bị người dùng. Ước tính có khoảng 90% các vụ xâm nhập mạng khởi đầu bằng một cuộc tấn công giả mạo đã được thực hiện thành công trước đó. Vụ tấn công mạng nghiêm trọng vào Medibank - công ty bảo hiểm tư nhân lớn nhất của Australia - vào tháng 10/2022, cũng có thể nằm trong số này.
Giám đốc kinh doanh tại VMware Australia, ông Darren Reid cho hay trong thời gian ngắn kể từ khi được phát hành vào năm ngoái, ChatGPT đã vượt qua được một trong những tuyến phòng thủ chống lại các cuộc tấn công giả mạo như vậy. ChatGPT đã vượt qua được rào cản ngôn ngữ, làm cho tin nhắn của tin tặc trở nên chân thực hơn và giúp cuộc tấn công có khả năng thành công cao hơn. Chuyên gia nhấn mạnh một khi tội phạm mạng đã xâm nhập được vào hệ thống máy tính của một tổ chức, chúng sẽ sử dụng AI để tránh bị phát hiện và tiếp tục mở rộng tấn công.
Trong cuộc khảo sát mới nhất về mức độ thiệt hại từ các vụ tấn công mạng, IBM nhận thấy phải mất trung bình khoảng 9 tháng để một công ty bị tấn công mạng có thể xác định và ngăn chặn cuộc tấn công đó. Đây là quãng thời gian tin tặc có thể lợi dụng để thu thập thêm nhiều dữ liệu làm cơ sở cho một cuộc tấn công sử dụng công nghệ deep-fake (công nghệ sử dụng AI để lấy hình ảnh, giọng nói của một người ghép vào video của người khác), sử dụng AI để bắt chước gần giống phong cách viết hoặc thậm chí là giọng nói của một đồng nghiệp để tấn công vào các bộ phận khác của doanh nghiệp.
Chuyên gia Chad Skipper cảnh báo tội phạm mạng thậm chí đang sử dụng ChatGPT để điều chỉnh bộ mã của những phần mềm độc hại, giúp chúng lẩn tránh phần mềm diệt virus, đồng thời đưa công nghệ AI vào phần mềm độc hại để những phần mềm này có thể tự điều chỉnh hoạt động sau khi bị phát hiện.