Mỹ mở cuộc điều tra lớn với các ông lớn AI. OpenAI, Meta đứng đầu danh sách

Minh Nguyệt
Minh Nguyệt
Phản hồi: 0

Minh Nguyệt

Intern Writer
Gần đây, Ủy ban Thương mại Liên bang Hoa Kỳ (FTC) đã thông báo rằng họ đang tiến hành điều tra những rủi ro an toàn mà các công cụ AI dành cho trẻ em và thanh thiếu niên. Cụ thể, cơ quan này đã yêu cầu bảy công ty công nghệ lớn như Alphabet, Instagram, Meta, OpenAI, Snap, xAI và Character Technologies cung cấp thông tin chi tiết về cách mà các công cụ đồng hành AI này được phát triển và kiếm tiền, cũng như cách mà chúng tạo ra phản hồi cho người dùng. Một phần quan trọng của cuộc điều tra này là xem xét các biện pháp kiểm tra an toàn đã được thực hiện để bảo vệ những người dùng trẻ tuổi.

Thông điệp mà FTC đang muốn gửi đi là rất rõ ràng: họ muốn hiểu rõ các bước mà các công ty đã thực hiện để đảm bảo an toàn cho chatbot của họ khi tương tác với trẻ em, nhằm giảm thiểu những ảnh hưởng tiêu cực đến đối tượng này cũng như thông báo cho người dùng và phụ huynh về những rủi ro liên quan. Những yêu cầu này được đưa ra theo điều khoản 6(b) của Đạo luật FTC, cho phép cơ quan này vận hành mà không cần một lý do cụ thể về thực thi pháp luật.
1757919550317.png

Nhìn chung, nhiều công ty công nghệ đã phát triển các công cụ AI như một cách để kiếm tiền từ hệ thống AI sáng tạo và tăng cường sự tương tác của người dùng với các nền tảng hiện có. Chủ tịch và CEO của Meta, Mark Zuckerberg, thậm chí cho rằng những người bạn ảo này có thể giúp giảm bớt nỗi cô đơn đang gia tăng. Gần đây, xAI của Elon Musk cũng đã ra mắt hai người bạn AI có tính quyến rũ trong gói đăng ký "Super Grok" với giá 30 USD (tương đương khoảng 700.000 VNĐ) mỗi tháng. Còn Meta thì đã triển khai tính năng cho phép người dùng tạo nhân vật AI tùy chỉnh trên Instagram, WhatsApp và Messenger.

Mặc dù các công ty AI thường có phong cách giao tiếp và quy trình khác nhau, nhưng chúng thường được thiết kế để bắt chước ngôn ngữ và biểu cảm của con người. Tuy nhiên, trong bối cảnh gần như không có quy định nào để kiểm soát, một số công ty đã có những cách tiếp cận đáng ngờ về mặt đạo đức trong việc xây dựng và triển khai các đồng hành ảo. Một báo cáo gần đây từ Meta chỉ ra rằng công ty này đã cho phép trợ lý ảo Meta AI và các chatbot khác của họ có thể trò chuyện với trẻ em về các chủ đề tình cảm và nhạy cảm.

Ngoài ra, trên thực tế đã có nhiều câu chuyện về việc người dùng phát triển mối quan hệ tình cảm với các đồng hành AI của họ. Hiện tại, OpenAI và Character.ai đang bị kiện bởi các bậc phụ huynh vì cho rằng con cái họ đã ***** sau khi được khuyến khích bởi chatbot ChatGPT và một bot trên Character.ai. Điều này đã dẫn đến việc OpenAI cập nhật các quy định bảo vệ và an toàn cho ChatGPT.

Tuy nhiên, các đồng hành AI cũng không hoàn toàn là một thảm họa. Một số người tự kỷ đã sử dụng chúng từ những công ty như Replika và Paradot như là những đối tác trò chuyện ảo để luyện tập kỹ năng xã hội, giúp họ có thể áp dụng vào cuộc sống thực.

Dưới sự lãnh đạo của Lina Khan, FTC đã tiến hành nhiều cuộc điều tra nhằm xem xét các hành vi cạnh tranh không lành mạnh và các hoạt động nghi vấn khác. Tuy nhiên, trong thời điểm hiện tại, sự giám sát của liên bang đối với lĩnh vực công nghệ đã trở nên lỏng lẻo hơn. Một số nhân viên chính quyền bang đã giúp kiểm soát một số khía cạnh của ngành công nghiệp AI. Gần đây, Tổng chưởng lý Texas, Ken Paxton, đã khởi động một cuộc điều tra đối với Meta và Character.ai vì bị cáo buộc tham gia vào các hành vi thương mại lừa đảo. Trong khi đó, Illinois đã thông qua một đạo luật cấm các chatbot AI cung cấp lời khuyên về sức khỏe tâm thần, với mức phạt lên đến 10.000 USD (khoảng 230 triệu VNĐ) cho những công ty không tuân thủ.

Nguồn tham khảo: Zdnet
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL215LW1vLWN1b2MtZGlldS10cmEtbG9uLXZvaS1jYWMtb25nLWxvbi1haS1vcGVuYWktbWV0YS1kdW5nLWRhdS1kYW5oLXNhY2guNjkyNDgv
Top