5 điều bạn không bao giờ nên chia sẻ với ChatGPT

Google vừa thay đổi chính sách bảo mật của các ứng dụng của mình để cho bạn biết rằng họ sẽ sử dụng tất cả dữ liệu công khai của bạn và mọi thứ khác trên internet để đào tạo các đối thủ ChatGPT của mình.
5 điều bạn không bao giờ nên chia sẻ với ChatGPT
Không có cách nào để phản đối thay đổi của Google ngoài việc xóa tài khoản của bạn. Ngay cả khi đó, bất kỳ thứ gì bạn từng đăng trực tuyến đều có thể được sử dụng để đào tạo Bard của Google và các lựa chọn thay thế ChatGPT khác.
Thay đổi chính sách quyền riêng tư của Google phải là một lời nhắc nhở rõ ràng để không chia sẻ quá mức với bất kỳ chatbot AI nào. Dưới đây, tôi sẽ đưa ra một vài ví dụ về thông tin bạn nên giữ lại từ AI cho đến khi các chương trình đó có thể được tin cậy với quyền riêng tư của bạn–nếu điều đó xảy ra.
Chúng tôi hiện đang ở miền tây hoang dã của đổi mới AI tổng quát khi nói đến quy định. Nhưng trong thời gian tới, các chính phủ trên khắp thế giới sẽ thiết lập các phương pháp hay nhất cho các chương trình AI tổng quát để bảo vệ quyền riêng tư của người dùng và bảo vệ nội dung có bản quyền.

Cũng sẽ đến một ngày AI tổng quát hoạt động trên thiết bị mà không cần báo cáo lại cho công ty mẹ. Ai Pin của Humane có thể là một sản phẩm như vậy. Apple Vision Pro có thể là một sản phẩm khác, giả sử Apple có sản phẩm AI tổng hợp của riêng mình trên máy tính không gian.
Cho đến lúc đó, hãy đối xử với ChatGPT, Google Bard và Bing Chat như những người xa lạ trong nhà hoặc văn phòng của bạn. Bạn sẽ không chia sẻ thông tin cá nhân hoặc bí mật công việc với người lạ.
Tôi đã nói với bạn trước đây rằng bạn không nên chia sẻ thông tin cá nhân với ChatGPT, nhưng tôi sẽ mở rộng bên dưới về loại thông tin cấu thành thông tin nhạy cảm mà các công ty AI tạo ra không nên lấy từ bạn.
Thông tin cá nhân có thể nhận dạng bạn
Cố gắng hết sức để ngăn chia sẻ thông tin cá nhân có thể nhận dạng bạn, chẳng hạn như tên đầy đủ, địa chỉ, ngày sinh và số an sinh xã hội của bạn với ChatGPT và các bot khác.
Hãy nhớ rằng OpenAI đã triển khai các tính năng bảo mật vài tháng sau khi phát hành ChatGPT. Khi được bật, cài đặt đó cho phép bạn ngăn lời nhắc của mình đến ChatGPT. Nhưng điều đó vẫn chưa đủ để đảm bảo thông tin bí mật của bạn luôn ở chế độ riêng tư sau khi bạn chia sẻ thông tin đó với chatbot. Bạn có thể tắt cài đặt đó hoặc lỗi có thể ảnh hưởng đến hiệu quả của cài đặt đó.
Vấn đề ở đây không phải là ChatGPT sẽ thu lợi từ thông tin đó hay OpenAI sẽ làm điều gì đó bất chính với nó. Nhưng nó sẽ được dùng để huấn luyện AI.
Quan trọng hơn, tin tặc đã tấn công OpenAI và công ty đã bị vi phạm dữ liệu vào đầu tháng Năm. Đó là loại tai nạn có thể dẫn đến việc dữ liệu của bạn đến nhầm người.
Chắc chắn, mọi người có thể khó tìm thấy thông tin cụ thể đó, nhưng không phải là không thể. Và họ có thể sử dụng dữ liệu đó cho các mục đích bất chính, chẳng hạn như đánh cắp danh tính của bạn.
Tên người dùng và mật khẩu
Điều mà tin tặc muốn nhất từ việc vi phạm dữ liệu là thông tin đăng nhập. Tên người dùng và mật khẩu có thể mở ra những cánh cửa không mong muốn, đặc biệt nếu bạn sử dụng lại cùng một thông tin đăng nhập cho nhiều ứng dụng và dịch vụ. Trên lưu ý đó, tôi sẽ nhắc bạn một lần nữa sử dụng các ứng dụng như Proton Pass và 1Password sẽ giúp bạn quản lý tất cả mật khẩu của mình một cách an toàn.
Mặc dù tôi mơ về việc yêu cầu một hệ điều hành đăng nhập tôi vào một ứng dụng, điều này có thể khả thi với các phiên bản ChatGPT riêng tư, trên thiết bị, tuyệt đối không chia sẻ thông tin đăng nhập của bạn với AI chung. Không có ích gì khi làm điều đó.
Thông tin tài chính
Không có lý do gì để cung cấp thông tin ngân hàng cá nhân cho ChatGPT. OpenAI sẽ không bao giờ cần số thẻ tín dụng hoặc chi tiết tài khoản ngân hàng. Và ChatGPT không thể làm gì với nó. Giống như các danh mục trước, đây là loại dữ liệu rất nhạy cảm. Trong tay kẻ xấu, nó có thể gây thiệt hại đáng kể cho tài chính của bạn.
Trên lưu ý đó, nếu bất kỳ ứng dụng nào tự xưng là ứng dụng khách ChatGPT cho thiết bị di động hoặc máy tính yêu cầu bạn cung cấp thông tin tài chính, thì đó có thể là dấu hiệu cảnh báo bạn đang xử lý phần mềm độc hại ChatGPT. Trong mọi trường hợp, chúng tôi không nên cung cấp dữ liệu đó. Thay vào đó, hãy xóa ứng dụng và chỉ nhận các ứng dụng AI chung chính thức từ OpenAI, Google hoặc Microsoft.
Bí mật công việc
Trong những ngày đầu của ChatGPT, một số nhân viên của Samsung đã tải mã lên chatbot. Đó là thông tin bí mật đã đến được máy chủ của OpenAI. Điều này đã khiến Samsung thực thi lệnh cấm đối với các bot AI tổng quát. Các công ty khác đã làm theo, bao gồm cả Apple. Và vâng, Apple đang phát triển các sản phẩm giống như ChatGPT của riêng mình.
Mặc dù đang tìm cách khai thác internet để đào tạo các đối thủ ChatGPT của mình, Google cũng đang hạn chế sử dụng AI sáng tạo tại nơi làm việc.
Điều này đủ để cho bạn biết rằng bạn nên giữ bí mật công việc của mình. Và nếu bạn cần sự trợ giúp của ChatGPT, bạn nên tìm những cách sáng tạo hơn để có được nó hơn là tiết lộ bí mật công việc.
Thông tin sức khỏe
Tôi để cái này cuối cùng, không phải vì nó không quan trọng, mà vì nó phức tạp. Tôi khuyên bạn không nên chia sẻ dữ liệu sức khỏe quá chi tiết với chatbot.
Bạn có thể muốn đưa ra lời nhắc cho các bot này có chứa các tình huống “nếu như” về một người biểu hiện các triệu chứng nhất định. Tôi không nói rằng hãy sử dụng ChatGPT để tự chẩn đoán bệnh của bạn ngay bây giờ. Hoặc để nghiên cứu những người khác. Chúng ta sẽ đạt đến một thời điểm khi AI tổng quát sẽ có thể làm được điều đó. Ngay cả khi đó, bạn cũng không nên cung cấp cho các dịch vụ giống như ChatGPT tất cả dữ liệu sức khỏe của mình. Không, trừ khi chúng là các sản phẩm AI cá nhân, trên thiết bị.
Ví dụ: tôi đã sử dụng ChatGPT để tìm giày chạy bộ có thể giải quyết một số tình trạng bệnh lý nhất định mà không chia sẻ quá nhiều thông tin chi tiết về sức khỏe của tôi.
Ngoài ra, có một danh mục dữ liệu sức khỏe khác ở đây: những suy nghĩ cá nhân nhất của bạn. Một số người có thể dựa vào chatbot để trị liệu thay vì các chuyên gia sức khỏe tâm thần thực sự. Tôi không thể nói liệu đó có phải là điều đúng đắn nên làm hay không. Nhưng tôi sẽ nhắc lại điểm tổng thể mà tôi đang trình bày ở đây. ChatGPT và các chatbot khác không cung cấp quyền riêng tư mà bạn có thể tin tưởng.
Suy nghĩ cá nhân của bạn sẽ đến được máy chủ của OpenAI, Google và Microsoft. Và chúng sẽ được sử dụng để huấn luyện các bot.
Mặc dù chúng ta có thể đạt đến thời điểm mà các sản phẩm AI tổng quát cũng có thể đóng vai trò là nhà tâm lý học cá nhân, nhưng chúng ta vẫn chưa đạt được điều đó. Nếu bạn phải nói chuyện với AI tổng quát để cảm thấy tốt hơn, bạn nên cảnh giác với những thông tin bạn chia sẻ với bot.
ChatGPT không phải là tất cả
Tôi đã đề cập trước loại thông tin mà ChatGPT không thể giúp bạn. Và những lời nhắc nó từ chối trả lời. Khi đó tôi đã nói rằng các chương trình dữ liệu như ChatGPT cung cấp không phải lúc nào cũng chính xác.
Tôi cũng xin nhắc bạn rằng ChatGPT và các chatbot khác có thể cung cấp cho bạn thông tin sai. Ngay cả liên quan đến các vấn đề sức khỏe, cho dù đó là sức khỏe tâm thần hay các bệnh khác. Vì vậy, bạn phải luôn yêu cầu nguồn trả lời cho lời nhắc của mình. Nhưng đừng bao giờ muốn cung cấp thêm thông tin cá nhân cho bot với hy vọng nhận được câu trả lời phù hợp hơn với nhu cầu của bạn.
Cuối cùng, có nguy cơ cung cấp dữ liệu cá nhân cho các ứng dụng phần mềm độc hại giả làm chương trình AI tổng hợp. Nếu điều đó xảy ra, bạn có thể không biết mình đã làm gì cho đến khi quá muộn. Tin tặc có thể đã sử dụng thông tin cá nhân đó để chống lại bạn.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top