Tạo một AI công bằng và không thiên kiến: Tại sao cực kì khó ? .

 


Có nhiều quan niệm khác nhau về sự công bằng – và đôi khi chúng còn đối lập nhau chan chát.

Các nhà khoa học máy tính hiểu khái niệm “thiên kiến” với ý nghĩa thống kê, rất khác so với cách mà mọi người vẫn dùng từ “thiên kiến” trong đời sống hằng ngày.

Hãy chơi một trò chơi. Tưởng tượng rằng bạn là một nhà khoa học máy tính. Công ty muốn bạn thiết kế một công cụ tìm kiếm trả về cho người dùng một loạt các tấm ảnh tương ứng với từ khóa mà họ đưa ra – một sản phẩm gần giống như Google hình ảnh.

Về mặt kỹ thuật thì nó dễ như ăn kẹo vì bạn là một nhà khoa học máy tính tài năng và đây là một bài toán khá cơ bản! Nhưng hãy hình dung thế giới bạn đang sống là nơi mà 90% CEO là nam giới (cũng giống thế giới của chúng ta phết!). Liệu bạn có nên thiết kế công cụ tìm kiếm phản ánh y hệt thực tế đó không, tức là nếu người dùng nhập từ “CEO” thì các hình ảnh trả về sẽ hầu hết là nam giới? Hoặc nếu làm thế sẽ càng làm chênh lệch giới tính ở cấp độ quản lý cấp cao, bạn sửa công cụ tìm kiếm để kết quả hiển thị cân bằng hơn? Cho dù kết quả đó không phản ánh thực tế ngày nay?

Các nhà khoa học máy tính hiểu khái niệm “thiên kiến” với ý nghĩa thống kê: Tức là một chương trình đưa ra dự đoán sẽ bị gọi là “thiên kiến” nếu nó liên tục sai theo hướng này hay hướng khác. (Ví dụ: nếu một ứng dụng thời tiết luôn ước tính quá cao khả năng có mưa, thì các dự đoán của nó bị thiên kiến” về mặt thống kê.) Định nghĩa này rất rõ ràng nhưng cũng rất khác so với cách mà mọi người vẫn dùng từ “thiên kiến” trong đời sống hằng ngày – với nghĩa là “định kiến đối với một nhóm người và một nhóm đặc điểm nào đó”

Vấn đề là nếu một khái niệm có hai cách hiểu, thì khả năng cao là hai khái niệm sẽ khó mà dung hòa với nhau. Nếu bạn thiết kế công cụ tìm kiếm của mình để đưa ra những dự đoán khách quan về mặt thống kê về sự phân chia giới tính giữa các CEO, thì nó nhất thiết sẽ bị sai lệch theo nghĩa thứ hai của từ này. Và nếu bạn thiết kế nó để các dự đoán của nó không tương quan với giới tính, thì nó nhất thiết sẽ bị sai lệch theo nghĩa thống kê.

Vậy bạn nên làm gì? Làm thế nào để cân bằng hai cách nhìn này? Hãy nghĩ thử xem nhé, chúng ta sẽ quay lại giải thích tiếp.

Trong khi bạn đang ngẫm nghĩ, thì hãy chấp nhận thực tế rằng không có một định nghĩa thống nhất nào về sự thiên kiến, cũng như về sự công bằng cả. Công bằng có thể có nhiều định nghĩa — ít nhất là 21 định nghĩa khác nhau theo ước lượng của một nhà khoa học máy tính — và có những định nghĩa còn mâu thuẫn với nhau.

John Basl là một nhà triết học của Đại học Northeastern chuyên về các công nghệ mới cho biết: “Chúng tôi đang ở trong thời kỳ khủng hoảng, thời điểm mà chúng ta không có những năng lực đạo đức để giải quyết vấn đề này”.

Vậy những người khổng lồ công nghệ nghĩa gì khi họ nói rằng họ có quan tâm đến việc tạo ra AI công bằng và không có thiên kiến? Google, Microsoft, thậm chí cả Bộ Quốc phòng Mỹ thường xuyên đưa ra các tuyên bố tỏ rõ cam kết của họ đối với các mục tiêu này. Nhưng họ có xu hướng trốn tránh một thực tế cơ bản: Ngay cả những nhà phát triển AI với ý định tốt nhất cũng có thể phải đánh đổi, nếu tăng cường một mặt công bằng này thì nhất thiết phải hy sinh một mặt công bằng khác.

Công chúng không thể bỏ qua câu hỏi hóc búa đó. Đó là những lỗ hổng rình rập bên trong những công nghệ đang có mặt trong cuộc sống hằng ngày của chúng ta, từ thuật toán quyết định cho vay tiền cho đến nhận dạng khuôn mặt. Hiện đang có một khoảng trống chính sách định hướng các công ty về các vấn đề công bằng và thiên kiến.

Timnit Gebru, một nhà nghiên cứu đạo đức AI hàng đầu, người đã bị buộc rời khỏi Google vào năm 2020 sau đó thành lập một viện nghiên cứu AI mới, cho biết: “Có những ngành phải chịu trách nhiệm giải trình, chẳng hạn như dược phẩm. Trước khi đưa ra thị trường bạn phải chứng minh cho chúng tôi thấy rằng bạn không làm điều X, Y, Z. Còn với các công ty (công nghệ) này thì chả có gì cả. Họ cứ thế mà ra sản phẩm tùy thích”.

Chúng ta cần phải hiểu những vấn đề đó và tiến tới quản lý chúng – quản lý các thuật toán đang ngày đêm bao trùm lên cuộc sống của chúng ta. Hãy điểm qua ba ví dụ trong thực tế để cho thấy sự công bằng cần thiết phải được đánh đổi như thế nào, và từ đó đưa ra một số giải pháp khả thi.

Làm sao để quyết định cho ai được vay tiền?

Hãy làm một ví dụ tưởng tượng nữa. Giả sử bạn là nhân viên ngân hàng phụ trách xét duyệt cho vay. Bạn sử dụng một thuật toán để tìm ra người nên cho vay tiền nhờ vào một mô hình dự đoán chủ yếu dựa vào điểm tín dụng FICO của họ – tức là về khả năng trả nợ. Hầu hết những người có điểm FICO trên 600 đều được vay tiền và hầu hết những ai dưới điểm số đó không được vay.

Các hệ thống nhận dạng khuôn mặt là một dạng thiên kiến khác của AI.

Một kiểu công bằng, được gọi là công bằng về quy trình, nói rằng một thuật toán là công bằng nếu quy trình mà nó sử dụng để đưa ra quyết định là công bằng. Điều đó có nghĩa là nó đánh giá tất cả những người nộp đơn dựa trên cùng loại thông tin của mỗi người, chẳng hạn như lịch sử thanh toán; nếu dữ liệu đầu vào giống nhau thì kết quả duyệt cho vay phải như nhau bất kể đặc điểm cá nhân như chủng tộc. Bằng cách đó thì có thể coi thuật toán của bạn đang hoạt động tốt.

Nhưng giả sử, xét về mặt thống kê, khả năng các thành viên của một nhóm chủng tộc này có điểm FICO trên 600 cao hơn các thành viên của một nhóm chủng tộc khác. Sự chênh lệch này có thể bắt nguồn từ sự bất bình đẳng trong lịch sử và trong chính sách mà thuật toán đã không xét đến.

Một quan niệm khác về sự công bằng gọi là sự công bằng trong phân phối, nói rằng một thuật toán là công bằng nếu nó cho ra kết quả công bằng. Theo quan niệm này thì thuật toán nói trên không thỏa mãn vì kết quả cho vay của nó có thể phụ thuộc vào chủng tộc của khách hàng.

Có thể giải quyết vấn đề này bằng cách cân chỉnh lại cho từng nhóm. Với nhóm này bạn có thể đặt ngưỡng FICO là 600, với nhóm khác là 500. Và khi đảm bảo tính sự công bằng trong phân phối thì bạn lại phá vỡ sự công bằng về quy trình.

Về phần mình, Gebru cho rằng cách sau là hợp lý hơn. Bạn có thể nghĩ về các mức điểm khác nhau như một hình thức đền bù cho những bất công trong lịch sử. Bà nói: “Bạn nên đền bù cho những người mà tổ tiên của họ đã phải đấu tranh qua nhiều thế hệ, thay vì trừng phạt họ thêm nữa,” đồng thời cho biết thêm rằng đây là một vấn đề chính sách và sẽ cần ý kiến ​​đóng góp của nhiều chuyên gia khác – không chỉ những người trong giới công nghệ.

Julia Stoyanovich, Giám đốc Trung tâm AI có trách nhiệm của NYU, đồng ý rằng nên có các ngưỡng điểm FICO khác nhau cho các nhóm chủng tộc khác nhau vì “sự bất bình đẳng dẫn đến chính sách sai sẽ tiếp tục kéo theo năng lực của các nhóm phân bố theo hướng bất bình đẳng đó.” Nhưng cô ấy cho rằng cách tiếp cận đó phức tạp hơn người ta tưởng, đòi hỏi bạn phải thu thập dữ liệu về chủng tộc của người nộp đơn, mà pháp luật thì lại cho phép người nộp đơn không cần phải tiết lộ.

Hơn nữa không phải ai cũng muốn được đền bù như vậy. Giống như rất nhiều vấn đề khác trong AI, đây là một câu hỏi về đạo đức và chính trị hơn là một câu hỏi thuần túy về công nghệ và không rõ ai sẽ là người trả lời câu hỏi đó.

Có nên sử dụng công nghệ nhận dạng khuôn mặt cho việc cảnh sát giám sát không?

Một dạng thiên kiến khác của AI mà rất nhiều người quan tâm là các hệ thống nhận dạng khuôn mặt. Những hệ thống này xác định rất tốt khuôn mặt người da trắng vì những hình ảnh được sử dụng để huấn luyện phần lớn là người da trắng. Nhưng chúng lại rất kém trong việc nhận ra những người có da sẫm, đặc biệt là phụ nữ. Điều đó có thể dẫn đến hậu quả tai hại.

Đọc tiếp bài viết từ link gốc tại đây: https://tiasang.com.vn/doi-moi-sang-tao/tao-mot-ai-cong-bang-va-khong-thien-kien-tai-sao-cuc-ki-kho/