Google: Đột phá AI không bỏ rơi con người

Công ty cho biết, nghiên cứu mới của họ sẽ giải quyết sự thiên lệch trong lĩnh vực trí tuệ nhân tạo và làm cho công nghệ này có thể tiếp cận được với tất cả mọi người.

Theo TheVerge, mỗi một triển vọng thú vị mà trí tuệ nhân tạo (AI) hứa hẹn thì lại luôn tiềm ẩn một điểm yếu cố hữu. Chúng ta hy vọng rằng AI sẽ cho phép chúng ta đưa ra những quyết định sáng suốt hơn, nhưng nếu như kết quả lại là những định kiến xã hội càng trở nên sâu sắc hơn thì sao? Chúng ta mơ ước rằng công nghệ sẽ giải phóng chúng ta khỏi công việc, nhưng nếu như chỉ có những người giàu mới hưởng lợi, còn những kẻ nghèo hèn lại bị gạt bỏ?

Chính những vấn đề như vậy đã khiến cho những nhà nghiên cứu trí tuệ nhân tạo phải thao thức suy nghĩ, và đó cũng chính là lí do khiến Google khởi chạy một phát kiến AI mới vào ngày 10/7 vừa qua để giải quyết một số vấn đề tương tự như vậy. Dự án mới có tên PAIR (viết tắt của "Con người + Nghiên cứu AI") và mục đích nó hướng tới là "nghiên cứu và thiết kế lại cách con người tương tác với hệ thống AI" và cố gắng đảm bảo rằng công nghệ này "có lợi cho tất cảmọi người và bất kỳ ai cũng có quyền sử dụng."

Đây là một trọng trách lớn không hề nhỏ đặt lên vai Google. Công ty này cho biết, PAIR sẽ xem xét một số những vấn đề khác nhau ảnh hưởng đến tất cả mọi người trong chuỗi cung ứng AI - từ những nhà nghiên cứu viết mã thuật toán, cho tới những chuyên gia như các bác sĩ và nông dân đang (hoặc sớm sẽ) sử dụng những công cụ AI chuyên dụng. Gã khổng lồ công nghệ này nói rằng họ muốn AI trở nên thân thiện với người dùng, và điều đó không chỉ dừng lại ở việc khiến cho công nghệ này trở nên dễ hiểu (làm cho AI có thể tự giải thích về chính nó đang là một vấn đề đã được biết đến và đầy thách thức) mà còn đảm bảo rằng người dùng được đối xử một cách công bằng.

Chúng ta đã ghi nhận được nhiều trường hợp các định kiến và sự bất bình đẳng xã hội được "hard coded" (cụm từ chỉ việc lập trình viên xây dựng các giá trị mang tính chất tuyệt đối và không thể thay đổi, trừ khi xây dựng lại từ đầu) vào trong AI. Có thể là những phần mềm nhận diện khuôn mặt không nhận ra được những người dùng da màu, hoặc một chương trình xử lý ngôn ngữ luôn cho rằng bác sĩ là đàn ông và y tá là phụ nữ.

Thông thường những vấn đề này xảy ra do dữ liệu "máy học" của trí tuệ nhân tạo. Hoặc là thông tin đó chưa hoàn thiện, hoặc bị ảnh hưởng thành kiến theo cách nào đó. Đó là lý do thông tin thật sự đầu tiên về PAIR là thông báo về công cụ hai nguồn mở, được gọi là Facets Overview và Facets Dive, giúp người lập trình dễ dàng kiểm tra dữ liệu hơn.

Trong hình trên, Facets Dive đang được sử dụng để kiểm tra một hệ thống nhận diện khuôn mặt. Chương trình đang phân loại người kiểm tra theo quốc tịch và so sánh những xác nhận danh tính giữa thành công và bị lỗi. Điều này cho phép lập trình viên nhanh chóng thấy được dữ liệu đang bị thiếu hụt ở đâu và thực hiện các điều chỉnh có liên quan.

Hiện tại, dự án PAIR có 12 nhân viên full-time. Đây là một con số nhỏ so với quy mô của vấn đề. Nhưng Google cho biết PAIR thực sự là một phát kiến của toàn công ty - một phát kiến sẽ thu hút các chuyên gia từ nhiều ban ngành của họ.

Trong tương lai, sẽ có thêm nhiều công cụ nguồn mở như Facet được phát hành, và Google cũng sẽ đưa ra các khoản phụ cấp và cơ sở vật chất mới để tài trợ cho những nghiên cứu liên quan. Google không phải là tổ chức lớn duy nhất đang xem xét nghiêm túc những vấn đề này, nhưng cũng thật tốt khi thấy họ tham gia vào cuộc chiến cho một tương lai công bằng và tốt đẹp hơn.

Văn Hoàn


Đánh giá gần đây
Đọc nhiều nhất Phản hồi nhiều nhất

1 Lịch nghỉ tết nguyên đán 2020

2 Chuyện gì đang xảy ra với nhà bán lẻ điện thoại số 2 Việt Nam?

3 Lịch nghỉ Tết ngân hàng: Hầu hết ngừng giao dịch tại quầy từ ngày 23/1/2020

4 Lịch nghỉ Tết nhà nước 2020

5 Người Hàn Quốc đấu tranh giành lại Tết Nguyên đán sau khi bãi bỏ như thế nào?

Tin Liên quan
Các tin khác
a
Xem thêm
Góc nhìn VNREVIEW