Alexandria Ocasio-Cortez Kata Algoritma Boleh Menjadi Perkauman. Inilah Kenapa Dia Benar.

Pin
Send
Share
Send

Minggu lepas, wakil Amerika Syarikat yang baru dipilih Alexandria Ocasio-Cortez menjadi tajuk utama ketika dia berkata, sebagai bagian dari acara tahunan MLK Now yang keempat, teknologi pengenalan muka dan algoritma "selalu ada ketidakadilan perkauman yang diterjemahkan, karena algoritma masih dibuat oleh manusia, dan algoritma-algoritma itu masih dipatokkan kepada andaian asas manusia Mereka hanya automatik Dan andaian automatik - jika anda tidak membetulkan berat sebelah, maka anda hanya mengotomatikkan berat sebelah. "

Adakah itu bermakna bahawa algoritma, yang secara teorinya berasaskan kebenaran matlamat matematik, boleh "rasis?" Dan jika ya, apa yang boleh dilakukan untuk menghapuskan berat sebelah itu?

Ternyata output dari algoritma sememangnya dapat menghasilkan hasil yang berat sebelah. Para saintis data mengatakan bahawa program komputer, rangkaian saraf, algoritma pembelajaran mesin dan kecerdasan buatan (AI) berfungsi kerana mereka belajar bagaimana untuk bertindak dari data yang diberikan. Perisian ditulis oleh manusia, yang mempunyai kecenderungan, dan data latihan juga dihasilkan oleh manusia yang mempunyai berat sebelah.

Dua tahap pembelajaran mesin menunjukkan bagaimana bias ini dapat merayap ke dalam proses yang seolah-olah automatik. Pada peringkat pertama, peringkat latihan, algoritma belajar berdasarkan satu set data atau peraturan atau sekatan tertentu. Tahap kedua adalah tahap kesimpulan, di mana algoritma menggunakan apa yang telah dipelajari dalam praktiknya. Tahap kedua menunjukkan kecenderungan algoritma. Sebagai contoh, jika algoritma dilatih dengan gambar-gambar wanita yang hanya mempunyai rambut panjang, maka ia akan menganggap sesiapa yang mempunyai rambut pendek adalah seorang lelaki.

Google terkenal di bawah api pada tahun 2015 ketika Google Foto memberi label orang hitam sebagai gorila, mungkin karena itu adalah makhluk-makhluk hitam dalam latihan.

Dan bias boleh merayap melalui pelbagai jalan. "Kesilapan yang biasa adalah melatih algoritma untuk membuat ramalan berdasarkan keputusan yang lalu dari manusia yang berat sebelah," kata Sophie Searcy, seorang saintis data kanan di bootcamp Metis-sains data latihan Metis, memberitahu Live Science. "Sekiranya saya membuat algoritma untuk mengautomasikan keputusan yang dibuat oleh sekumpulan pegawai pinjaman, saya mungkin mengambil jalan mudah dan melatih algoritma pada keputusan masa lalu daripada pegawai pinjaman itu. Tetapi, tentu saja, jika pegawai pinjaman itu berat sebelah, maka algoritma yang saya bina akan meneruskannya. "

Searcy memetik contoh COMPAS, alat ramalan yang digunakan di seluruh sistem keadilan jenayah A.S. untuk hukuman, yang cuba untuk meramalkan di mana jenayah akan berlaku. ProPublica melakukan analisis mengenai COMPAS dan mendapati bahawa, selepas mengawal penjelasan statistik lain, alat tersebut mengesampingkan risiko penanggulangan untuk defendan hitam dan konsisten meremehkan risiko untuk terdakwa putih.

Untuk membantu memerangi kecenderungan algoritma, Searcy memberitahu Live Science, jurutera dan saintis data harus membina set data yang lebih pelbagai untuk masalah baru, serta cuba memahami dan mengurangkan bias yang dibina dalam set data sedia ada.

Pertama sekali, kata Ira Cohen, seorang saintis data di syarikat analisis ramalan Anodot, jurutera harus mempunyai latihan yang ditetapkan dengan perwakilan yang relatif seragam bagi semua jenis populasi jika mereka melatih algoritma untuk mengenal pasti sifat etnik atau jantina. "Adalah penting untuk mewakili contoh yang cukup dari setiap kumpulan populasi, walaupun mereka adalah minoriti dalam keseluruhan populasi yang diperiksa," kata Cohen kepada Live Science. Akhirnya, Cohen mengesyorkan untuk memeriksa kecenderungan pada set ujian yang termasuk orang dari semua kumpulan ini. "Jika, untuk bangsa tertentu, ketepatan secara statistik jauh lebih rendah daripada kategori lain, algoritma mungkin mempunyai berat sebelah, dan saya akan menilai data latihan yang digunakan untuk itu," kata Cohen kepada LiveScience. Sebagai contoh, jika algoritma mengenal pasti 900 daripada 1,000 muka putih dengan betul, tetapi dengan tepat mengesan hanya 600 daripada 1,000 muka asian, maka algoritma mungkin mempunyai berat sebelah "menentang" Asia, tambah Cohen.

Mengeluarkan berat sebelah boleh menjadi sangat mencabar untuk AI.

Malah Google, yang dianggap sebagai pelopor dalam AI komersial, nampaknya tidak dapat menyelesaikan masalah komprehensif untuk masalah gorilanya dari tahun 2015. Berwayar mendapati bahawa bukan mencari cara untuk algoritma untuk membezakan antara orang warna dan gorila, Google hanya disekat algoritma pengiktirafan imej dari mengenal pasti gorila sama sekali.

Contoh Google adalah peringatan yang baik bahawa latihan perisian AI dapat menjadi latihan yang sukar, terutama ketika perangkat lunak tidak diuji atau dilatih oleh wakil dan beragam orang.

Pin
Send
Share
Send