Chatbot AI có thể làm lộ thông tin người dùng?

10/04/2023 - Tin công nghệ

Theo các chuyên gia, chatbot AI không đưa ra được câu trả lời cụ thể khi hỏi về vấn đề quyền riêng tư của người dùng Internet bình thường. Phần lớn các câu trả lời tập trung vào việc chatbot AI được tạo ra như thế nào và mức độ tương tác qua lại giữa người dùng với con bot.

Trong quá trình chạy đua sản phẩm trí tuệ nhân tạo, các công ty công nghệ đã sử dụng một lượng dữ liệu khổng lồ để tái tạo chatbot AI tương tác giống với con người.

Các chatbot AI có thể làm mất thông tin của người (Ảnh: Sưu tầm)

Cựu nhân viên AI của Microsoft Research - Megha Srivastava cho biết: “Những mô hình này đang đào tạo trên các tập dữ liệu lớn có sẵn công khai trên internet. Mặc dù ChatGPT và Bard sử dụng cái mà họ gọi là phần "được lọc" trong dữ liệu của Common Crawl, nhưng kích thước tuyệt đối của mô hình khiến "bất kỳ ai cũng không thể xem qua dữ liệu và làm sạch nó”.

Việc một bot tiết lộ thông tin liên hệ thực tế của ai đó không phải là vấn đề chỉ có trên lý thuyết. Nó có thể đến từ sự bất cẩn của người dùng hoặc vấn đề bảo mật của bên thứ ba.

Nghệ sĩ Dave Lee đăng trên Twitter rằng, số điện thoại cá nhân của ông đã bị tiết lộ khi ai đó hỏi ChatGPT trên nền tảng nhắn tin được mã hóa Signal.

Khi được blog công nghệ Engadget đặt câu hỏi về biện pháp bảo về quyền riêng tư cho người dùng trên ChatGPT, Open AI đã từ chối trả lời.

Trong khi đó, Google lại trả lời rằng,  họ đã lập trình các biện pháp bảo vệ tương tự vào Bard để ngăn chặn việc chia sẻ thông tin nhận dạng cá nhân trong các cuộc trò chuyện.

Việc bị lộ thông tin cá nhân khi sử dụng phần mềm có thể rất nguy hiểm, khi thông tin được chia sẻ trực tiếp trong nhật ký trò chuyện hoặc thiết bị trong quá trình sử dụng.


0.24288 sec| 1962.68 kb