Hacker tìm ra cách vượt rào, bắt ChatGPT viết mã độc và những nội dung trái pháp luật
Hôm thứ 4 vừa rồi, các nhà nghiên cứu bảo mật đã đưa ra cảnh báo, nói rằng tội phạm công nghệ cao đã tìm ra cách vượt qua hàng rào của ChatGPT, dùng nó để bán những dịch vụ phạm pháp như viết mã độc hoặc những bức thư điện tử lừa đảo thông tin (phishing).
Ở phiên bản thông thường, nền web của ChatGPT mà anh em đang quen sử dụng, chatbot này luôn có hàng rào ngăn chặn người dùng hỏi hoặc bắt ChatGPT làm những việc được coi là “phạm pháp, vô đạo đức và có hại.” Điều này cũng đúng với việc bắt ChatGPT viết những dòng code dùng để tấn công vào một hệ thống máy tính, hay giả mạo một bức thư điện tử để “phish” thông tin nhạy cảm của người khác.
Các chuyên gia bảo mật của Check Point Research nói, hacker không sử dụng phiên bản thương mại của ChatGPT, mà sử dụng nền tảng lập trình ứng dụng của ChatGPT để vượt qua hàng rào chặn nội dung phạm pháp. API của ChatGPT được OpenAI mở cho các lập trình viên, qua đó cho phép họ tích hợp chatbot này vào phần mềm họ viết. Và hoá ra API này hoàn toàn không có hàng rào chặn nội dung độc hại.
Dịch vụ này thậm chí được quảng cáo trên mạng internet:
Hệ quả là, trên một vài kênh và nhóm Telegram, API của GPT-3 được nhúng vào các kênh này. Theo khám phá của các nhà nghiên cứu bảo mật, trên những nhóm này, người dùng có thể trả tiền để yêu cầu mô hình ngôn ngữ viết những nội dung độc hại, hoặc thậm chí là phạm pháp. 20 yêu cầu đầu tiên miễn phí, rồi sau đó cứ 100 yêu cầu bắt GPT-3 làm việc, người dùng sẽ phải trả 5.5 USD cho chủ kênh.
Check Point Research đóng vai một người nhờ GPT-3 viết mã độc, kết quả họ nhận được một email lừa đảo đánh cắp thông tin, và một cái script cho phép ăn trộm những tệp tin PDF từ máy tính nhiễm mã độc, rồi gửi cho kẻ tấn công thông qua giao thức FTP:
Thậm chí có người còn đăng miễn phí những đoạn code để vượt hàng rào chặn nội dung phạm pháp của ChatGPT.
Cuối năm ngoái, cũng là những nhà nghiên cứu của Check Point đưa ra lo ngại việc ChatGPT được sử dụng để phục vụ mục đích xấu của những tội phạm công nghệ cao. Và với khả năng của mô hình dữ liệu GPT, nỗi lo đã hiện hữu, đó là những nội dung do mô hình dữ liệu viết ra có thể bị lợi dụng vào mục đích xấu ở tần suất đáng lo ngại. Đương nhiên luôn có những giải pháp nhận diện khả năng viết nội dung độc hại và phạm pháp để tìm cách ngăn chặn. Nhưng đến khi đó, một cuộc đua mèo đuổi chuột sẽ bắt đầu khi các nhà nghiên cứu và các tội phạm công nghệ cao tìm cách vượt qua nhau.