Phát hiện loạt lỗ hổng ChatGPT cho phép kẻ tấn công đánh lừa AI và đánh cắp dữ liệu người dùng

Phát hiện loạt lỗ hổng ChatGPT cho phép kẻ tấn công đánh lừa AI và đánh cắp dữ liệu người dùng

Các nhà nghiên cứu an ninh mạng vừa cảnh báo về bảy lỗ hổng mới trong ChatGPT, có thể khiến dữ liệu cá nhân bị rò rỉ chỉ bằng những thao tác gián tiếp mà người dùng không hề hay biết.

Phát hiện loạt lỗ hổng ChatGPT cho phép kẻ tấn công đánh lừa AI và đánh cắp dữ liệu người dùng

Các chuyên gia bảo mật đã công bố một loạt lỗ hổng nghiêm trọng ảnh hưởng đến các phiên bản ChatGPT mới như GPT-4o và GPT-5, cho phép kẻ tấn công thực hiện hành vi đánh cắp dữ liệu thông qua kỹ thuật prompt injection tinh vi. Những lỗ hổng này tạo điều kiện để hacker điều khiển mô hình AI từ xa, thao túng kết quả trả lời và truy cập trái phép vào ký ức trò chuyện cũng như thông tin cá nhân của người dùng.

Theo phân tích, các lỗ hổng cho phép tấn công theo nhiều cách khác nhau, từ việc chèn chỉ dẫn độc hại vào website để ChatGPT tự tóm tắt và thực thi, đến việc lợi dụng URL có tham số “q=” để khiến ChatGPT chạy lệnh ngay khi người dùng mở đường link. Một số kỹ thuật còn khai thác cơ chế đánh dấu Markdown để che giấu nội dung nguy hiểm hoặc đầu độc bộ nhớ ChatGPT bằng những hướng dẫn ẩn trong nội dung trang web. Các lỗ hổng này đều dẫn đến nguy cơ AI bị thao túng, trả lời sai lệch hoặc tự động rò rỉ thông tin nhạy cảm mà người dùng không nhận ra.

Các chuyên gia an ninh mạng cảnh báo rằng những lỗ hổng này chỉ là một phần trong xu hướng tấn công mới, nơi kẻ gian chủ động lợi dụng hành vi của mô hình để vượt qua hàng rào bảo vệ. Nhiều nghiên cứu gần đây chỉ ra rằng các cuộc tấn công gián tiếp như PromptJacking, session smuggling hay kỹ thuật shadow escape cho phép kẻ xấu cài lệnh ẩn vào tài liệu, trang web hoặc kênh giao tiếp giữa các AI agent, từ đó tiếp cận dữ liệu hoặc thực thi hành động trái phép. Những kỹ thuật này không yêu cầu người dùng phải nhấp vào liên kết độc hại, mà lợi dụng chính quá trình AI thu thập và xử lý dữ liệu từ bên ngoài.

Bên cạnh đó, các nhà nghiên cứu còn cảnh báo về nguy cơ “đầu độc dữ liệu” khi mô hình AI được huấn luyện trên thông tin rác hoặc dữ liệu độc hại. Điều này có thể gây ra hiện tượng “brain rot”, khiến mô hình học sai lệch, làm tăng khả năng thao túng nội dung và lan truyền thông tin sai sự thật. Chỉ cần một số ít tài liệu bị đầu độc cũng đủ để ảnh hưởng đến hành vi tổng thể của mô hình, mở rộng thêm bề mặt tấn công trong tương lai.

Các chuyên gia nhận định rằng những phát hiện này là lời nhắc mạnh mẽ về việc AI càng được tích hợp sâu vào công cụ và hệ thống thì rủi ro bảo mật, an ninh mạng và quyền riêng tư càng tăng. Các nhà cung cấp mô hình cần đảm bảo những cơ chế bảo vệ như lọc URL, kiểm soát dữ liệu đầu vào và hạn chế truy cập ngữ cảnh đều hoạt động chính xác để giảm thiểu nguy cơ bị tấn công. Người dùng cũng cần thận trọng với các nội dung mình yêu cầu AI truy cập hoặc tóm tắt, tránh vô tình kích hoạt những mệnh lệnh bị che giấu.

Hương - Theo TheHackerNews

Tin liên quan:

Standard Post with Image

Microsoft âm thầm vá lỗ hổng "cửa hậu" trên file shortcut (lnk) - windows của bạn đã an toàn chưa?

Microsoft vừa lặng lẽ tung ra bản cập nhật để bịt một lỗ hổng bảo mật nghiêm trọng liên quan đến các file Shortcut (.LNK). Đây là phương thức tấn...

Chi tiết
Standard Post with Image

Mã độc Android mới FVNCBOT và SEEDSNATCHER đang "móc túi" tiền ảo và tài khoản ngân hàng

Các chuyên gia an ninh mạng vừa phát hiện hai dòng mã độc Android cực kỳ nguy hiểm là FVNCBot và SeedSnatcher. Chúng không chỉ đánh cắp tài khoản...

Chi tiết
Standard Post with Image

Lỗ hổng nghiêm trọng trên plugin Wordpress "KING ADDONS" đang bị hacker tấn công diện rộng

Cộng đồng bảo mật vừa phát đi báo động đỏ về một lỗ hổng nguy hiểm nằm trong plugin phổ biến "King Addons" dành cho WordPress. Các tin tặc đang tích...

Chi tiết