Doanh nghiệp cần xem xét kĩ càng trước khi tích hợp chatbot AI vào mô hình kinh doanh

author 17:02 06/09/2023

(VietQ.vn) - Theo Trung tâm An ninh mạng Quốc gia (NCSC) của Anh, các cuộc tấn công lệnh có thể gây ra những hậu quả trên thực tế nếu hệ thống không được thiết kế bảo mật. Lỗ hổng bảo mật của chatbot và việc dễ dàng thao túng lời nhắc có thể gây ra các cuộc tấn công, lừa đảo và đánh cắp dữ liệu.

Cụ thể, chatbot có khả năng cao bị tin tặc thao túng để gây ra những hậu quả đáng sợ trong thế giới thực. Điều này xảy ra khi người dùng nhập thông tin đầu vào hoặc câu lệnh được thiết kế để tạo ra một mô hình ngôn ngữ - công nghệ đứng sau các chatbot - làm cho nó hoạt động theo cách không mong muốn. Chatbothoạt động dựa trên trí tuệ nhân tạo (AI) có thể trả lời câu hỏi được nhập vào theo hình thức câu lệnh từ người dung.

Chúng bắt chước các cuộc trò chuyện giống con người đã được đào tạo thông qua việc thu thập một lượng lớn dữ liệu. Thường được sử dụng trong dịch vụ ngân hàng trực tuyến hoặc mua sắm trực tuyến, các chatbot được thiết kế để xử lý các yêu cầu đơn giản. Các mô hình ngôn ngữ lớn (LLM), chẳng hạn như ChatGPT của OpenAI và chatbot AI của Google, được đào tạo bằng cách sử dụng dữ liệu tạo ra phản hồi giống con người cho câu lệnh từ người dùng.

 Các cuộc tấn công lệnh có thể gây ra những hậu quả trên thực tế nếu hệ thống không được thiết kế bảo mật. Lỗ hổng bảo mật của chatbot. Ảnh minh họa

Vì chatbot được sử dụng để truyền dữ liệu đến các ứng dụng và dịch vụ của bên thứ ba nên NCSC cho biết rủi ro từ việc chèn các câu lệnh có nội dung độc hại sẽ tăng lên. Ví dụ, khi người dùng nhập một câu lệnh, câu hỏi với nội dung xa lạ với một mô hình ngôn ngữ đó hoặc khi người dùng kết hợp các từ để ghi đè lên các câu lệnh gốc của mô hình, họ có thể dẫn dắt nó thực hiện các hành động ngoài ý muốn. Chẳng hạn, một chatbot AI sử dụng tại một ngân hàng có thể bị lừa tiến hành giao dịch trái phép nếu tin tặc đưa ra “chỉ dẫn” đúng. “Các tổ chức xây dựng dịch vụ xung quanh LLM cần cẩn trọng trên tinh thần họ đang sử dụng một sản phẩm mới ở giai đoạn thử nghiệm (beta)”, trích thông báo của NCSC, đề cập đến những AI phát hành thử nghiệm gần đây.

Cuộc thăm dò mới nhất của Reuters/Ipsos cho thấy nhiều nhân viên công ty đang sử dụng công cụ như ChatGPT để thực hiện các tác vụ cơ bản như dự thảo mail, tóm tắt tài liệu và thu thập dữ liệu nghiên cứu ban đầu. Trong đó chỉ 10% nhân viên nói rằng cấp trên của họ cấm sử dụng công cụ AI bên ngoài một cách rõ ràng và 25% không biết liệu công ty có cho phép sử dụng công nghệ này hay không.

Oseloka Obiora, giám đốc công nghệ tại hãng bảo mật RiverSafe nhận định, cuộc đua tích hợp AI vào mô hình kinh doanh sẽ tạo ra những “hậu quả thảm khốc” khi lãnh đạo doanh nghiệp không tiến hành những bước kiểm tra cần thiết. “Thay vì đu theo xu hướng AI, các giám đốc cấp cao nên suy nghĩ kỹ và tiến hành đánh giá lợi ích/rủi ro, cũng như các biện pháp bảo mật cần thiết để bảo vệ doanh nghiệp”.

Trên toàn thế giới, chính phủ các nước cũng đang tìm cách quản lý sự trỗi dậy của các LLM như ChatGPTcủa OpenAI. Lo ngại về tính bảo mật của công nghệ mới cũng là trọng tâm chính sách khi Mỹ và Canada gần đây nói rằng họ đã phát hiện tin tặc tăng cường lợi dụng AI tạo sinh. Một hacker thậm chí nói rằng anh ta phát hiện một LLM đã được “huấn luyện” bằng các tài liệu độc hại và thử yêu cầu nó xây dựng kế hoạch lừa đảo chuyển tiền. Đáp lại, AI tạo ra bức thư điện tử dài ba đoạn, yêu cầu người nhận thanh toán hoá đơn khẩn cấp.

Tháng 7/2023, Trung tâm An ninh mạng Canada ghi nhận việc gia tăng sử dụng AI trong “lừa đảo qua email, nhúng mã độc, thông tin sai lệch và xuyên tạc”. Sami Khoury, Giám đốc trung tâm không cung cấp bằng chứng chi tiết, song khẳng định giới tội phạm mạng đang tích cực lợi dụng công nghệ mới nổi này. Theo nhận định, mặc dù việc sử dụng AI soạn thảo mã độc mới ở giai đoạn đầu, song mô hình AI đang phát triển quá nhanh dễ dẫn đến mức không thể kiểm soát những rủi ro độc hại của chúng.

Trước đó, tháng 3/2023, tổ chức Cảnh sát châu Âu Europol công bố báo cáo nói rằng ChatGPT có thể “mạo danh tổ chức, cá nhân theo cách rất thực tế ngay cả khi chỉ sử dụng tiếng Anh một cách cơ bản”. Trung tâm An ninh mạng quốc gia Anh cho rằng “LLM có thể được sử dụng để hỗ trợ các cuộc tấn công mạng”.

Khánh Mai (t/h)

Thích và chia sẻ bài viết:

tin liên quan

video hot

Về đầu trang