Thoại Viết Hoàng
Writer
>> Giám đốc điều hành OpenAI Sam Altman thừa nhận nỗi sợ hãi lớn nhất của ông đối với AI: 'Nó có thể đi sai hướng'
>> Microsoft cho biết AI mới có dấu hiệu suy luận của con người
>> AI đọc não và giải mã độc thoại nội tâm của con người! Bí mật của cá nhân sẽ bị nhìn xuyên thấu?
>> Chuyên gia AI: Trí tuệ nhân tạo sẽ thay thế 80% nhân lực trong vài năm nữa
Giám đốc điều hành của OpenAI, công ty khởi nghiệp đằng sau ChatGPT, đã nói với hội đồng Thượng viện vào thứ Ba rằng việc sử dụng trí tuệ nhân tạo để can thiệp vào tính toàn vẹn của cuộc bầu cử là một “lĩnh vực đáng quan tâm”, đồng thời bổ sung rằng nó cần có quy định.
“Tôi lo lắng về điều đó,” Giám đốc điều hành Sam Altman nói về bầu cử và AI, cần bổ sung các quy tắc và hướng dẫn.
Trong nhiều tháng, các công ty lớn và nhỏ đã chạy đua để đưa AI ngày càng linh hoạt ra thị trường, ném dữ liệu vô tận và hàng tỷ đô la vào thử thách này. Một số nhà phê bình lo ngại công nghệ này sẽ làm trầm trọng thêm các tác hại xã hội, trong đó có định kiến và thông tin sai lệch, trong khi những người khác cảnh báo AI có thể tự kết liễu loài người.
Thượng nghị sĩ Cory Booker, một trong nhiều nhà lập pháp đặt câu hỏi về cách tốt nhất để điều chỉnh AI, cho biết: "Không có cách nào để đặt vị thần này vào trong chai. Trên toàn cầu, điều này đang bùng nổ".
Thượng nghị sĩ Mazie Hirono lưu ý nguy cơ thông tin sai lệch khi cuộc bầu cử năm 2024 đang đến gần. "Ví dụ, trong bối cảnh bầu cử, tôi nhìn thấy bức ảnh cựu Tổng thống Trump bị NYPD bắt giữ và bức ảnh đó đã lan truyền nhanh chóng", cô nói, nhấn Altman về việc liệu anh ta có coi bức ảnh giả mạo đó là có hại hay không.
Altman trả lời rằng người sáng tạo nên làm rõ thời điểm một hình ảnh được tạo ra hơn là thực tế.
Phát biểu trước Quốc hội lần đầu tiên, Altman gợi ý rằng nhìn chung, Hoa Kỳ nên xem xét các yêu cầu cấp phép và thử nghiệm để phát triển các mô hình AI.
Altman, được yêu cầu đưa ra ý kiến về việc AI nào nên được cấp phép, cho biết một mô hình có thể thuyết phục hoặc thao túng niềm tin của một người sẽ là một ví dụ về "ngưỡng lớn".
Ông cũng cho biết các công ty nên có quyền nói rằng họ không muốn dữ liệu của họ được sử dụng để đào tạo AI, đây là một ý tưởng đang được thảo luận tại Đồi Capitol. Tuy nhiên, Altman cho biết tài liệu trên web công khai sẽ là trò chơi công bằng.
Altman cũng cho biết ông "sẽ không nói không bao giờ" với ý tưởng quảng cáo nhưng thích mô hình dựa trên đăng ký hơn.
Nhà Trắng đã triệu tập các CEO công nghệ hàng đầu bao gồm cả Altman để giải quyết vấn đề về AI. Tương tự như vậy, các nhà lập pháp Hoa Kỳ đang tìm kiếm hành động để nâng cao lợi ích của công nghệ và an ninh quốc gia đồng thời hạn chế việc lạm dụng nó. Sự đồng thuận là xa chắc chắn.
Một nhân viên của OpenAI gần đây đã đề xuất thành lập một cơ quan cấp phép cho AI của Hoa Kỳ, có thể được gọi là Văn phòng An ninh Cơ sở hạ tầng và An toàn AI, hay OASIS, Reuters đưa tin.
OpenAI được hỗ trợ bởi Microsoft Corp, Altman cũng đang kêu gọi hợp tác toàn cầu về AI và khuyến khích tuân thủ an toàn.
Christina Montgomery, Giám đốc ủy thác và quyền riêng tư của International Business Machines Corp, kêu gọi Quốc hội tập trung quy định vào các lĩnh vực có khả năng gây tổn hại xã hội lớn nhất.
Bài viết gốc tại đây.
>> Microsoft cho biết AI mới có dấu hiệu suy luận của con người
>> AI đọc não và giải mã độc thoại nội tâm của con người! Bí mật của cá nhân sẽ bị nhìn xuyên thấu?
>> Chuyên gia AI: Trí tuệ nhân tạo sẽ thay thế 80% nhân lực trong vài năm nữa
Giám đốc điều hành của OpenAI, công ty khởi nghiệp đằng sau ChatGPT, đã nói với hội đồng Thượng viện vào thứ Ba rằng việc sử dụng trí tuệ nhân tạo để can thiệp vào tính toàn vẹn của cuộc bầu cử là một “lĩnh vực đáng quan tâm”, đồng thời bổ sung rằng nó cần có quy định.
“Tôi lo lắng về điều đó,” Giám đốc điều hành Sam Altman nói về bầu cử và AI, cần bổ sung các quy tắc và hướng dẫn.
Trong nhiều tháng, các công ty lớn và nhỏ đã chạy đua để đưa AI ngày càng linh hoạt ra thị trường, ném dữ liệu vô tận và hàng tỷ đô la vào thử thách này. Một số nhà phê bình lo ngại công nghệ này sẽ làm trầm trọng thêm các tác hại xã hội, trong đó có định kiến và thông tin sai lệch, trong khi những người khác cảnh báo AI có thể tự kết liễu loài người.
Thượng nghị sĩ Mazie Hirono lưu ý nguy cơ thông tin sai lệch khi cuộc bầu cử năm 2024 đang đến gần. "Ví dụ, trong bối cảnh bầu cử, tôi nhìn thấy bức ảnh cựu Tổng thống Trump bị NYPD bắt giữ và bức ảnh đó đã lan truyền nhanh chóng", cô nói, nhấn Altman về việc liệu anh ta có coi bức ảnh giả mạo đó là có hại hay không.
Altman trả lời rằng người sáng tạo nên làm rõ thời điểm một hình ảnh được tạo ra hơn là thực tế.
Phát biểu trước Quốc hội lần đầu tiên, Altman gợi ý rằng nhìn chung, Hoa Kỳ nên xem xét các yêu cầu cấp phép và thử nghiệm để phát triển các mô hình AI.
Altman, được yêu cầu đưa ra ý kiến về việc AI nào nên được cấp phép, cho biết một mô hình có thể thuyết phục hoặc thao túng niềm tin của một người sẽ là một ví dụ về "ngưỡng lớn".
Ông cũng cho biết các công ty nên có quyền nói rằng họ không muốn dữ liệu của họ được sử dụng để đào tạo AI, đây là một ý tưởng đang được thảo luận tại Đồi Capitol. Tuy nhiên, Altman cho biết tài liệu trên web công khai sẽ là trò chơi công bằng.
Altman cũng cho biết ông "sẽ không nói không bao giờ" với ý tưởng quảng cáo nhưng thích mô hình dựa trên đăng ký hơn.
Nhà Trắng đã triệu tập các CEO công nghệ hàng đầu bao gồm cả Altman để giải quyết vấn đề về AI. Tương tự như vậy, các nhà lập pháp Hoa Kỳ đang tìm kiếm hành động để nâng cao lợi ích của công nghệ và an ninh quốc gia đồng thời hạn chế việc lạm dụng nó. Sự đồng thuận là xa chắc chắn.
Một nhân viên của OpenAI gần đây đã đề xuất thành lập một cơ quan cấp phép cho AI của Hoa Kỳ, có thể được gọi là Văn phòng An ninh Cơ sở hạ tầng và An toàn AI, hay OASIS, Reuters đưa tin.
OpenAI được hỗ trợ bởi Microsoft Corp, Altman cũng đang kêu gọi hợp tác toàn cầu về AI và khuyến khích tuân thủ an toàn.
Christina Montgomery, Giám đốc ủy thác và quyền riêng tư của International Business Machines Corp, kêu gọi Quốc hội tập trung quy định vào các lĩnh vực có khả năng gây tổn hại xã hội lớn nhất.
Bài viết gốc tại đây.