Nhung Phan
Intern Writer
Những công ty đang kiểm tra độ an toàn của AI có thực sự... an toàn?
Lâu nay, hàng trăm tổ chức trên khắp thế giới nhận mình là “đơn vị đánh giá” hệ thống AI, từ xe tự lái cho đến công nghệ chẩn đoán ung thư. Tuy nhiên, nhiều nhóm trong số đó... cũng đang tự phát triển công nghệ AI. Vừa đá bóng vừa thổi còi, chuyện không lạ nhưng rõ ràng đáng lo.
Theo BSI, tình trạng “mạnh ai nấy làm” đang khiến thị trường này trông không khác gì một miền Tây hoang dã: nơi mà các quy trình đánh giá có thể “mạnh ai nấy nghĩ”, độ nghiêm túc và chất lượng rất khác nhau, và rủi ro là nằm ở người dùng.
Vậy nên tiêu chuẩn mới ra đời không chỉ để “dọn vườn” mà còn đặt nền móng cho một thị trường đánh giá AI minh bạch và đáng tin hơn. Dự kiến công bố vào 31 tháng 7, đây sẽ là bộ tiêu chuẩn quốc tế đầu tiên hướng dẫn cách kiểm tra, giám sát và đảm bảo hệ thống AI tuân thủ đúng luật và đạo đức.
Trong khi các luật như Đạo luật AI của Liên minh Châu Âu đang đặt ra quy định khắt khe hơn, thì nhu cầu “đảm bảo có kiểm toán đàng hoàng” trở thành áp lực cho các công ty muốn ứng dụng AI một cách hợp pháp và an toàn.
Điều này cũng tạo ra một làn sóng startup trong ngành kiểm toán AI, chen chân cạnh tranh với cả những ông lớn như Big Four (các hãng kiểm toán hàng đầu thế giới). Nhưng không phải ai cũng có chất lượng như nhau, và đó là lúc cần chuẩn hóa.
Vấn đề lớn hiện nay là có quá nhiều tiêu chuẩn “độc quyền” do chính các công ty nghĩ ra để... tự kiểm toán cho khách hàng. Deborah Raji, nhà nghiên cứu tại Berkeley, cảnh báo rằng các chuẩn này thường không công khai và người ngoài gần như không thể thẩm định độ tin cậy của chúng. Điều này khiến cho sự kiểm toán trở thành một... niềm tin thay vì một quy trình minh bạch.
Với tiêu chuẩn mới của BSI, ít nhất những ai thật sự làm kiểm toán AI sẽ phải cho thấy mình có trách nhiệm, có hệ thống, và có thể bị đánh giá ngược lại.
Bạn nghĩ sao nếu một công ty AI dùng chính công nghệ của mình để tự đánh giá chính mình? Liệu tiêu chuẩn kiểm toán mới có thật sự khiến thị trường này “bớt hoang dã” hơn không? Nếu Việt Nam phát triển công nghệ AI, có nên áp dụng tiêu chuẩn tương tự? (ft.com)
Một bước ngoặt cho ngành kiểm toán AI
Viện Tiêu chuẩn Anh (BSI) vừa chuẩn bị tung ra một tiêu chuẩn kiểm toán mới dành riêng cho AI. Nghe qua thì có vẻ như chuyện kỹ thuật, nhưng thực chất đây là một tín hiệu rõ ràng: ngành kiểm toán AI sắp phải vào khuôn khổ.Lâu nay, hàng trăm tổ chức trên khắp thế giới nhận mình là “đơn vị đánh giá” hệ thống AI, từ xe tự lái cho đến công nghệ chẩn đoán ung thư. Tuy nhiên, nhiều nhóm trong số đó... cũng đang tự phát triển công nghệ AI. Vừa đá bóng vừa thổi còi, chuyện không lạ nhưng rõ ràng đáng lo.
Theo BSI, tình trạng “mạnh ai nấy làm” đang khiến thị trường này trông không khác gì một miền Tây hoang dã: nơi mà các quy trình đánh giá có thể “mạnh ai nấy nghĩ”, độ nghiêm túc và chất lượng rất khác nhau, và rủi ro là nằm ở người dùng.
Vậy nên tiêu chuẩn mới ra đời không chỉ để “dọn vườn” mà còn đặt nền móng cho một thị trường đánh giá AI minh bạch và đáng tin hơn. Dự kiến công bố vào 31 tháng 7, đây sẽ là bộ tiêu chuẩn quốc tế đầu tiên hướng dẫn cách kiểm tra, giám sát và đảm bảo hệ thống AI tuân thủ đúng luật và đạo đức.
Vì sao bây giờ lại cần đến?
Lý do không quá khó hiểu. AI đang ngày càng len lỏi vào các lĩnh vực nhạy cảm như y tế, giao thông, và cả công nghệ quân sự. Sự tin tưởng không thể dựa vào lời cam kết “chúng tôi có kiểm toán nội bộ” hay “AI của chúng tôi rất đạo đức”.Trong khi các luật như Đạo luật AI của Liên minh Châu Âu đang đặt ra quy định khắt khe hơn, thì nhu cầu “đảm bảo có kiểm toán đàng hoàng” trở thành áp lực cho các công ty muốn ứng dụng AI một cách hợp pháp và an toàn.

Phân biệt thật giả nhờ tiêu chuẩn
Mark Thirlwell từ BSI cảnh báo rằng nếu không có khung chuẩn, sẽ khó biết đâu là công ty kiểm toán có trách nhiệm và đâu chỉ là “bán giấy chứng nhận”. Còn theo đại diện của Armilla AI, công ty đang hoạt động trong mảng này, tiêu chuẩn mới sẽ là “bước tiến lớn” vì giúp phân biệt rõ ràng những tổ chức thực sự đủ điều kiện.Vấn đề lớn hiện nay là có quá nhiều tiêu chuẩn “độc quyền” do chính các công ty nghĩ ra để... tự kiểm toán cho khách hàng. Deborah Raji, nhà nghiên cứu tại Berkeley, cảnh báo rằng các chuẩn này thường không công khai và người ngoài gần như không thể thẩm định độ tin cậy của chúng. Điều này khiến cho sự kiểm toán trở thành một... niềm tin thay vì một quy trình minh bạch.
Với tiêu chuẩn mới của BSI, ít nhất những ai thật sự làm kiểm toán AI sẽ phải cho thấy mình có trách nhiệm, có hệ thống, và có thể bị đánh giá ngược lại.
Bạn nghĩ sao nếu một công ty AI dùng chính công nghệ của mình để tự đánh giá chính mình? Liệu tiêu chuẩn kiểm toán mới có thật sự khiến thị trường này “bớt hoang dã” hơn không? Nếu Việt Nam phát triển công nghệ AI, có nên áp dụng tiêu chuẩn tương tự? (ft.com)