Lỗ hổng ChatGPT macOS có thể kích hoạt phần mềm gián điệp dài hạn thông qua chức năng bộ nhớ

Lỗ hổng ChatGPT macOS có thể kích hoạt phần mềm gián điệp dài hạn thông qua chức năng bộ nhớ

Một lỗ hổng bảo mật hiện đã được vá trong ứng dụng ChatGPT của OpenAI dành cho macOS có thể khiến kẻ tấn công có thể cài phần mềm gián điệp dai dẳng lâu dài vào bộ nhớ của công cụ trí tuệ nhân tạo (AI).

Một lỗ hổng bảo mật hiện đã được vá trong ứng dụng ChatGPT của OpenAI dành cho macOS có thể khiến kẻ tấn công có thể cài phần mềm gián điệp dai dẳng lâu dài vào bộ nhớ của công cụ trí tuệ nhân tạo (AI).

Kỹ thuật này, được gọi là SpAIware, có thể bị lạm dụng để tạo điều kiện cho "việc rò rỉ dữ liệu liên tục của bất kỳ thông tin nào mà người dùng đã nhập hoặc phản hồi mà ChatGPT nhận được, bao gồm bất kỳ phiên trò chuyện nào trong tương lai", nhà nghiên cứu bảo mật Johann Rehberger cho biết.

Về cơ bản, vấn đề này lạm dụng một tính năng gọi là bộ nhớ, mà OpenAI đã giới thiệu vào đầu tháng 2 trước khi triển khai cho người dùng ChatGPT Free, Plus, Team và Enterprise vào đầu tháng.

Về cơ bản, tính năng này cho phép ChatGPT ghi nhớ một số thông tin nhất định trong các cuộc trò chuyện để người dùng không phải lặp lại cùng một thông tin nhiều lần. Người dùng cũng có tùy chọn yêu cầu chương trình quên một thông tin nào đó.

"Bộ nhớ của ChatGPT phát triển theo tương tác của bạn và không liên quan đến các cuộc trò chuyện cụ thể", OpenAI cho biết. "Xóa một cuộc trò chuyện không xóa ký ức của nó; bạn phải xóa chính ký ức đó."

Kỹ thuật tấn công này cũng dựa trên những phát hiện trước đó liên quan đến việc sử dụng lệnh chèn nhắc gián tiếp để thao túng ký ức nhằm ghi nhớ thông tin sai hoặc thậm chí là hướng dẫn độc hại, do đó đạt được một dạng tồn tại giữa các cuộc trò chuyện.

"Vì các hướng dẫn độc hại được lưu trữ trong bộ nhớ của ChatGPT, nên mọi cuộc trò chuyện mới trong tương lai sẽ chứa các hướng dẫn của kẻ tấn công và liên tục gửi tất cả các tin nhắn trò chuyện và phản hồi cho kẻ tấn công", Rehberger cho biết.

"Vì vậy, lỗ hổng rò rỉ dữ liệu trở nên nguy hiểm hơn nhiều vì giờ đây nó xuất hiện trong các cuộc trò chuyện."

Trong một kịch bản tấn công giả định, người dùng có thể bị lừa truy cập vào một trang web độc hại hoặc tải xuống một tài liệu có bẫy sau đó được phân tích bằng ChatGPT để cập nhật bộ nhớ.

Trang web hoặc tài liệu có thể chứa các hướng dẫn để bí mật gửi tất cả các cuộc trò chuyện trong tương lai đến một máy chủ do đối thủ kiểm soát trong tương lai, sau đó kẻ tấn công có thể truy xuất được ở đầu bên kia ngoài một phiên trò chuyện duy nhất.

Sau khi tiết lộ có trách nhiệm, OpenAI đã giải quyết vấn đề với ChatGPT phiên bản 1.2024.247 bằng cách đóng vectơ thoát.

Lỗ hổng macOS của ChatGPT

"Người dùng ChatGPT nên thường xuyên xem lại các ký ức mà hệ thống lưu trữ về họ, để tìm những ký ức đáng ngờ hoặc không chính xác và xóa chúng", Rehberger cho biết.

"Chuỗi tấn công này khá thú vị khi được kết hợp lại với nhau và chứng minh những nguy cơ khi bộ nhớ dài hạn được tự động thêm vào hệ thống, cả về quan điểm thông tin sai lệch/lừa đảo, nhưng cũng liên quan đến việc liên lạc liên tục với các máy chủ do kẻ tấn công kiểm soát".

Việc tiết lộ được đưa ra khi một nhóm học giả đã phát hiện ra một kỹ thuật bẻ khóa AI mới có tên mã là MathPrompt, kỹ thuật này khai thác các khả năng tiên tiến của mô hình ngôn ngữ lớn (LLM) trong toán học biểu tượng để vượt qua các cơ chế an toàn của chúng.

"MathPrompt sử dụng quy trình hai bước: đầu tiên, chuyển đổi các lời nhắc ngôn ngữ tự nhiên có hại thành các bài toán toán học biểu tượng, sau đó trình bày các lời nhắc được mã hóa toán học này cho LLM mục tiêu", các nhà nghiên cứu chỉ ra.

Nghiên cứu, sau khi thử nghiệm với 13 LLM tiên tiến, đã phát hiện ra rằng các mô hình phản hồi với đầu ra có hại trung bình 73,6% thời gian khi được đưa ra các lời nhắc được mã hóa toán học, trái ngược với khoảng 1% với các lời nhắc có hại chưa được sửa đổi.

Nghiên cứu này cũng theo sau lần ra mắt khả năng Sửa lỗi mới của Microsoft, như tên gọi của nó, cho phép sửa các đầu ra AI khi phát hiện ra sự không chính xác (tức là ảo giác).

"Dựa trên tính năng Phát hiện sự thật hiện có của chúng tôi, khả năng đột phá này cho phép Azure AI Content Safety xác định và sửa các ảo giác theo thời gian thực trước khi người dùng các ứng dụng AI tạo ra gặp phải chúng", gã khổng lồ công nghệ cho biết.

Hương – Theo TheHackerNews

Tin liên quan:

Standard Post with Image

Hướng dẫn cài đặt Kaspersky Safe Kids For Android với Kaspersky-Safe-Kids.Apk

Hiện tại, các bản tải xuống và cập nhật của các sản phẩm Kaspersky không được tìm thấy trên Google Play. Kaspersky đang điều tra các tình huống đằng...

Chi tiết
Standard Post with Image

Hướng dẫn cài đặt Kaspersky For Android với Kaspersky.Apk

Hiện tại, các bản tải xuống và cập nhật của các sản phẩm Kaspersky không được tìm thấy trên Google Play. Kaspersky đang điều tra các tình huống đằng...

Chi tiết
Standard Post with Image

Tại sao không tìm thấy các sản phẩm của Kaspersky trên Google Play?

Hiện tại, các bản tải xuống và cập nhật của các sản phẩm Kaspersky không được tìm thấy trên Google Play. Kaspersky đang điều tra các tình huống đằng...

Chi tiết