ChatGPT bị lạm dụng để hack máy tính
Microsoft và OpenAI đã phát hiện năm nhóm được nhà nước bảo trợ đang cố gắng sử dụng AI tổng hợp (bao gồm cả ChatGPT) để tinh chỉnh khả năng hack của họ. Các nhóm này bao gồm tổ chức hacker khét tiếng của Nga Fancy Bear, cùng với các hacker từ Trung Quốc, Iran và Triều Tiên.
Các tin tặc đã cố gắng sử dụng các công cụ của OpenAI để gỡ lỗi mã máy tính, tạo chương trình máy tính và tạo các nội dung có khả năng phục vụ cho các cuộc tấn công lừa đảo. Các hacker Fancy Bear cũng sử dụng các công cụ này “để nghiên cứu nguồn mở về các giao thức liên lạc vệ tinh và công nghệ hình ảnh radar”.
Trong khi đó, nhóm hack Emerald Sleet của Triều Tiên đã khai thác công nghệ AI để giúp họ xác định các chuyên gia và tổ chức tập trung vào phòng thủ ở khu vực châu Á - Thái Bình Dương.
Microsoft và OpenAI đã phát hiện năm nhóm hacker đang cố gắng sử dụng AI để tinh chỉnh khả năng hack của họ
OpenAI cho biết: “Phát hiện của chúng tôi cho thấy các mô hình của chúng tôi chỉ cung cấp các khả năng hạn chế, gia tăng cho các tác vụ an ninh mạng độc hại”. Microsoft cho biết thêm rằng, các công cụ AI chưa bao giờ dẫn đến “một cuộc tấn công đặc biệt mới lạ hoặc độc đáo do AI hỗ trợ”. Đúng hơn, tin tặc chỉ đơn thuần sử dụng AI tổng hợp như một “công cụ năng suất” để hợp lý hóa công việc của chúng.
Tin tức xuất hiện khi các cơ quan tình báo ở Anh và Hàn Quốc cũng phát hiện ra các tin tặc được nhà nước bảo trợ đang khai thác AI. Mối quan tâm chính là các công cụ như ChatGPT có thể tạo nội dung, phân tích cơ sở dữ liệu và tìm lỗi phần mềm trong vòng vài giây, khiến chúng trở thành vũ khí lợi hại cho tội phạm mạng thúc đẩy âm mưu của chúng.
Đáp lại sự việc trên, cả Microsoft và OpenAI đều chấm dứt các tài khoản mà tin tặc đang sử dụng để truy cập vào các công cụ AI tổng hợp. Các công ty cũng tiếp tục giám sát các dịch vụ của họ để phát hiện bất kỳ hành vi lạm dụng tiềm năng nào.
Tuy nhiên, OpenAI cho biết họ đã cài đặt các biện pháp bảo vệ trên các công cụ của mình để ngăn chặn mọi hành vi lạm dụng có mục đích xấu. Các thử nghiệm của công ty đã phát hiện ra rằng mẫu AI mới nhất của họ, GPT-4, “chỉ cung cấp các khả năng gia tăng, hạn chế cho các nhiệm vụ an ninh mạng độc hại ngoài những gì có thể đạt được bằng các công cụ không hỗ trợ AI có sẵn công khai”.
Công ty đã hợp tác với Microsoft trong việc xuất bản nghiên cứu ngày 14/02 nhằm giúp ngành công nghiệp ngăn chặn nguy cơ lạm dụng các công cụ AI ngày nay. “Microsoft sẽ cộng tác với các bên liên quan khác để thường xuyên trao đổi thông tin về việc sử dụng AI của các tác nhân đe dọa được phát hiện.”
(Theo PCmag)
Tin hot
Đặt lịch