5 thứ bạn không bao giờ được nói với ChatGPT

Tháp rơi tự do
Tháp rơi tự do
Phản hồi: 0

Tháp rơi tự do

Intern Writer
ChatGPT xử lý khoảng 2,5 tỷ yêu cầu mỗi ngày, khác với trải nghiệm khi tương tác với công cụ tìm kiếm, phản hồi của AI giống như lời hồi đáp từ một người bạn hơn là một danh sách đơn giản các trang web có thể hoặc không chứa câu trả lời cho truy vấn của chúng ta. Mọi người đang sử dụng các công cụ AI như ChatGPT theo một số cách rất kỳ lạ , nhưng cần phải thận trọng khi chia sẻ thông tin.

Thông tin nhận dạng cá nhân​

1767348551727.png

Nghiên cứu đã xem xét 1.000 cuộc hội thoại ChatGPT công khai - và kết quả rất đáng kinh ngạc. Họ phát hiện ra rằng người dùng thường xuyên chia sẻ các chi tiết như họ tên và địa chỉ đầy đủ, số CMND, số điện thoại, địa chỉ email, tên người dùng và mật khẩu. Điều này càng trở nên quan trọng hơn khi xét đến sự gia tăng của các trình duyệt AI có khả năng tự động hóa như Atlas - trình duyệt dựa trên AI của OpenAI, được hỗ trợ bởi ChatGPT .

Không thể phủ nhận rằng ChatGPT thực sự hữu ích cho các công việc như soạn thảo sơ yếu lý lịch và thư xin việc. Tuy nhiên, nó hoàn thành công việc một cách hoàn hảo mà không cần thiết phải bao gồm các thông tin cá nhân không cần thiết. Việc sử dụng các chỗ giữ chỗ cũng hiệu quả không kém, miễn là bạn nhớ chỉnh sửa các chi tiết để tránh trường hợp lá thư quan trọng đó bị gửi đi với nội dung "John Doe, Nowhere Street, Middletown". Tóm lại, bước đơn giản này giúp bảo vệ các dữ liệu nhạy cảm như tên, địa chỉ và số CMND – những thông tin có thể bị lạm dụng và rơi vào tay kẻ xấu.

Một lựa chọn khác là không cho phép ChatGPT sử dụng các cuộc trò chuyện của bạn để huấn luyện dữ liệu. Bạn có thể thực hiện điều này trong phần cài đặt của ChatGPT, và hướng dẫn đầy đủ có thể được tìm thấy trên trang web của OpenAI . Điều quan trọng cần lưu ý là điều này không có nghĩa là việc chia sẻ thông tin cá nhân của bạn đột nhiên trở nên ổn, nhưng nó làm giảm khả năng bất kỳ thông tin nào được chia sẻ một cách vô tình bị công khai. Tóm lại, việc chia sẻ thông tin cá nhân của bạn với ChatGPT không phải là điều cần thiết và nên tránh trong mọi trường hợp.

Thông tin tài chính​

Một cách phổ biến khác mà mọi người sử dụng ChatGPT là như một cố vấn tài chính cá nhân. Điều này có thể đơn giản như lập ngân sách hàng tháng hoặc phức tạp hơn là xây dựng toàn bộ chiến lược nghỉ hưu. Trước hết, như OpenAI thừa nhận một cách thẳng thắn, "ChatGPT có thể mắc lỗi. Hãy kiểm tra thông tin quan trọng.", đó là lý do tại sao nhiều chuyên gia khuyên không nên sử dụng các công cụ như vậy mà không xác minh thông tin quan trọng với các chuyên gia tài chính. Tuy nhiên, ChatGPT có thể hữu ích trong các vấn đề tài chính, nhưng không cần thiết phải chia sẻ bất kỳ chi tiết tài chính cá nhân nào với nó.
1767348590936.png

Mặc dù lập ngân sách và kế hoạch tài chính là những trường hợp sử dụng phổ biến, nhưng cũng có những lúc người dùng muốn nhập thông tin tài chính. Ví dụ như hiểu sao kê ngân hàng, xem xét đề nghị vay vốn hoặc sử dụng trí tuệ nhân tạo (AI) như đã đề cập ở trên. Trong bất kỳ trường hợp nào, thông tin chi tiết thực sự hiếm khi cần thiết, và có thể nhập thông tin giữ chỗ. Trong trường hợp người dùng tải lên sao kê tài chính, việc chỉnh sửa để loại bỏ thông tin nhận dạng cá nhân (PII) trước cũng có thể hiệu quả.

Thông tin nhạy cảm bao gồm số tài khoản ngân hàng, chi tiết thẻ tín dụng, thông tin đăng nhập tài khoản đầu tư và hồ sơ thuế. Chatbot không hoạt động trong khuôn khổ bảo mật được thiết kế để bảo vệ các giao dịch tài chính. Về cơ bản, điều này có nghĩa là một khi thông tin được nhập vào, nó sẽ nằm ngoài các biện pháp bảo vệ thường được áp dụng cho dữ liệu tài chính. Trong trường hợp xấu nhất, điều này có thể dẫn đến việc dữ liệu tài chính nhạy cảm rơi vào tay "kẻ xấu", những kẻ này sau đó có thể sử dụng nó để thực hiện gian lận tài chính, đánh cắp danh tính, tấn công mã độc tống tiền, lừa đảo trực tuyến hoặc tất cả những điều trên.

Thông tin y tế​

Ngày càng nhiều người đang chuyển sang sử dụng chatbot AI như ChatGPT để tìm kiếm thông tin liên quan đến sức khỏe. Theo một cuộc khảo sát gần đây, khoảng một trong sáu người trưởng thành sử dụng chatbot AI ít nhất một lần mỗi tháng để tìm kiếm thông tin sức khỏe; con số này tăng lên một trong bốn đối với người trẻ tuổi.

Rủi ro phát sinh khi các cuộc thảo luận chung bắt đầu bao gồm các chi tiết cụ thể. Thông tin như chẩn đoán, kết quả xét nghiệm, tiền sử bệnh án và các vấn đề sức khỏe tâm thần có thể nhanh chóng trở nên nhạy cảm, đặc biệt khi kết hợp với thông tin nhận dạng cá nhân. Giống như thông tin tài chính, vấn đề càng trở nên nghiêm trọng hơn vì một khi đã được nhập vào, dữ liệu đó nằm ngoài mạng lưới bảo vệ dữ liệu sức khỏe, có nghĩa là một khi nó "được đưa ra ngoài", người dùng sẽ khó có thể giám sát hoặc kiểm soát cách thức xử lý nó.

1767348648935.png

Thực tế là mọi người cảm thấy thoải mái hơn khi chia sẻ thông tin cá nhân với ChatGPT so với việc chỉ sử dụng chức năng tìm kiếm Google thông thường. Các tương tác giống như cuộc trò chuyện tạo cảm giác gần gũi hơn so với các tìm kiếm Google thiếu tính cá nhân, và điều này có thể dẫn đến sự sẵn lòng tiết lộ thông tin y tế cá nhân cao hơn.

ChatGPT có thể hữu ích để hiểu các khái niệm y khoa một cách tổng quát, nhưng không nên được coi là có quyền quyết định như phòng khám bác sĩ.

Tài liệu liên quan đến công việc​

Ngoài dữ liệu cá nhân, còn có một loại thông tin khác không nên có trong ChatGPT — ít nhất là ở dạng chưa được lọc — đó là các cuộc trò chuyện liên quan đến tài liệu công việc bí mật hoặc độc quyền. Điều này bao gồm bất cứ điều gì liên quan đến nhà tuyển dụng, khách hàng hoặc bất kỳ dự án nào đang diễn ra mà chưa được phép công khai. Mặc dù việc sử dụng ChatGPT để tóm tắt tài liệu, viết lại email hoặc kiểm tra & chỉnh sửa báo cáo có vẻ hấp dẫn, nhưng làm như vậy có thể gây ra những rủi ro không cần thiết đối với tính toàn vẹn của dữ liệu thường được bảo vệ.

Ví dụ, hãy quay lại với tình huống y tế, nhưng lần này chúng ta xem xét từ góc độ chuyên môn. Trong trường hợp này, một bác sĩ bận rộn có thể muốn chia sẻ bản nháp tóm tắt bệnh nhân, ghi chú lâm sàng hoặc thư giới thiệu với ChatGPT để giúp trau chuốt ngôn từ hoặc đơn giản hóa các vấn đề phức tạp. Tuy nhiên, mặc dù mục đích là tiết kiệm thời gian, việc chia sẻ những chi tiết như vậy có thể khiến tài liệu bị công khai, hoặc ít nhất là nằm ngoài phạm vi các quy trình bảo mật được thiết kế để bảo vệ thông tin đó. Các tác phẩm sáng tạo và tài sản trí tuệ cũng thuộc loại "không được chia sẻ".

Tóm lại, có một chủ đề xuyên suốt có thể dùng để tóm tắt vấn đề. Đừng bao giờ chia sẻ bất cứ điều gì với các chatbot AI như ChatGPT mà bạn không cảm thấy thoải mái khi đặt trên bất kỳ nền tảng công khai nào hoặc chuyển giao cho bên thứ ba nào ngoài bất kỳ hệ thống an toàn và được quản lý nào được chấp nhận. Nếu sử dụng cẩn trọng, chatbot có thể là những công cụ vô cùng hữu ích. ChatGPT có rất nhiều tính năng mà bạn có thể bỏ qua nhưng có lẽ không nên – và việc đảm bảo an toàn không phải là một trong số đó.

Bất cứ điều gì bất hợp pháp​

Cuối cùng, việc chia sẻ bất cứ điều gì bất hợp pháp trên ChatGPT là điều nên tránh, và OpenAI không chỉ cam kết tiết lộ dữ liệu người dùng theo yêu cầu của các cơ quan pháp luật Hoa Kỳ mà còn tuân thủ các yêu cầu quốc tế.

Luật pháp thay đổi liên tục, cả trong nước và quốc tế, và những hành vi bình thường có thể bị coi là phạm pháp trong thời gian ngắn, vì vậy tốt nhất là nên thận trọng về những gì bạn tiết lộ cho các công ty vì sau này thông tin đó có thể bị chuyển giao cho cơ quan thực thi pháp luật.

1767348694115.png


OpenAI có các biện pháp bảo vệ nhằm ngăn chặn việc sử dụng ChatGPT cho các mục đích bất hợp pháp hoặc phi đạo đức, và việc vượt qua các giới hạn này có thể khiến bạn bị gắn cờ. Điều này bao gồm việc hỏi nó cách thực hiện tội phạm hoặc gian lận, và tác động đến người khác để họ thực hiện các hành động có khả năng gây hại. Nó cũng có các "quy trình" chuyên biệt để lọc ra các cuộc trò chuyện mà nó phát hiện người dùng đang có kế hoạch gây hại cho người khác.

Mặc dù điểm thứ hai có lẽ là nghiêm trọng nhất và tương đối dễ phát hiện. Các hành vi lạm dụng bất hợp pháp khác của ChatGPT cho thấy các biện pháp bảo vệ của nó không phải là hoàn hảo. Việc sử dụng nền tảng này để viết mã độc hại và tự động hóa các kế hoạch tấn công phi kỹ thuật đã được ghi nhận rõ ràng, điều này càng nhấn mạnh tầm quan trọng của việc thận trọng khi sử dụng ChatGPT.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzLzUtdGh1LWJhbi1raG9uZy1iYW8tZ2lvLWR1b2Mtbm9pLXZvaS1jaGF0Z3B0Ljc2ODY3Lw==
Top