CAMBRIDGE – Algoritma sama biasnya dengan data yang mereka proses. Dan semua data bias. Bahkan statistik yang “resmi” tidak dapat dianggap sebagai “fakta” yang objektif dan abadi. Angka-angka yang pemerintah publikasikan mewakili keadaan masyarakat saat ini, yang dilihat melalui lensa yang dianggap relevan dan penting oleh mereka yang mengumpulkan data. Kategori dan klasifikasi yang digunakan untuk memahami data tidak netral. Sama seperti ketika kita mengukur apa yang kita lihat, kita cenderung hanya melihat apa yang kita ukur.
Seiring dengan menyebarnya algoritma pembuatan kebijakan ke bidang pembuatan kebijakan yang lebih luas, hal ini menyoroti bias sosial terhadap data yang kita kumpulkan yang dulu mengintai tanpa terlihat. Dengan mengambil struktur dan proses yang ada saat ini ke titik logis yang ekstrem, kecerdasan buatan (AI) memaksa kita untuk menghadapi suatu masyarakat yang kita telah ciptakan.
Masalahnya bukan hanya komputer dirancang untuk berpikir seperti perusahaan, seperti yang rekan saya Jonnie Penn dari Universitas Cambridge katakan. Namun, komputer juga berpikir seperti ekonom. Bagaimanapun, AI adalah versi lebih sempurna dari homo economicus yang bisa dibayangkan oleh manusia. Teknologi tersebut adalah agen yang rasional, konsisten secara logis, berorientasi tujuan yang mampu mencapai tujuan yang diinginkan dengan sumber daya komputasi yang terbatas. Sehubungan dengan “memaksimalkan utilitas,” AI jauh lebih efektif dibandingkan manusia.
“Utilitas” bagi ekonom serupa dengan “phlogiston” di kimia pada jaman dahulu. Ahli kimia pada di masa lalu berhipotesis bahwa materi yang mudah terbakar mengandung elemen tersembunyi – phlogiston – yang dapat menjelaskan mengapa substansi berubah ketika terbakar. Namun, meskipun mereka terus mencoba, para ilmuan tidak dapat mengonfirmasi hipotesis tersebut. Mereka tidak dapat melacak phlogiston karena alasan yang sama dengan para ekonom saat ini yang tidak dapat mengukur utilitas sebenarnya.
Para ekonom menggunakan konsep utilitas untuk menjelaskan mengapa orang membuat pilihan tertentu – apa yang mereka beli, tempat investasi, seberapa banyak bekerja: setiap orang berupaya untuk memaksimalkan utilitas sesuai dengan pilihan dan kepercayaan seseorang mengenai dunia, dan sesuai dengan batasan pendapatan atau sumber daya yang langka. Meskipun tidak nyata, utilitas adalah sebuah gagasan yang kuat. Wajar untuk menganggap bahwa semua orang berupaya sebaik mungkin untuk diri mereka sendiri.
Selain itu, gagasan ekonom mengenai utilitas berasal dari utilitarianisme klasik, yang bertujuan untuk mendapatkan sebanyak mungkin barang untuk sebanyak mungkin orang. Seperti ekonom modern yang mengikuti jejak John Stuart Mill, sebagian besar algoritma rancangan adalah utilitarian yang percaya bahwa jika suatu “hal” diketahui, maka “hal” tersebut bisa dimaksimalkan.
Namun asumsi ini dapat menyebabkan hasil yang menyulitkan. Misalnya, bagaimana algoritma digunakan untuk memutuskan apakah warga binaan layak mendapat pembebasan bersyarat. Sebuah studi penting pada tahun 2017 menemukan bahwa algoritma mempunyai kinerja yang lebih baik dalam memprediksi tingkat residivisme, dan dapat digunakan untuk mengurangi “tingkat pemenjaraan” sebesar lebih dari 40% “tanpa peningkatan tingkat kejahatan.” Oleh karena itu, AI di Amerika dapat digunakan untuk mengurangi populasi lembaga pemasyarakatan yang secara tidak proporsional merupakan orang kulit hitam. Namun apa yang terjadi ketika AI mengambil alih proses pembebasan bersyarat dan warga Amerika keturunan Afrika masih menjadi warga binaan dengan jumlah yang lebih tinggi dibandingkan warga kulit putih?
Pembuatan keputusan algoritma yang sangat efisien telah menimbulkan pertanyaan tersebut, sehingga memaksa kita untuk memutuskan secara tepat hasil seperti apa yang harus dimaksimalkan. Apakah kita hanya ingin mengurangi populasi lembaga pemasyarakatan, atau apakah kita harus juga mempertimbangkan keadilan? Ketika politik memungkinkan ambiguitas dan kompromi untuk menyamarkan pertukaran tersebut, kode komputer membutuhkan kejelasan.
Permintaan akan kejelasan tersebut menjadikan lebih sulit untuk mengabaikan sumber struktural dari kesenjangan sosial. Di era AI, algoritma akan memaksa kita untuk mengakui hasil dari konflik sosial dan politik di masa lalu yang diabadikan hingga masa kini melalui cara kita menggunakan data.
Karena kelompok seperti AI Ethics Initiative dan Partnership on AI, perdebatan yang lebih luas mengenai etika AI mulai muncul. Namun algoritma AI tentu hanya melakukan apa yang kode tentukan. Permasalahan sebenarnya terletak melampaui penggunaan pembuatan keputusan algoritma di perusahaan atau instansi pemerintah, dan berdampak pada dasar etika masyarakat kita.
Meskipun kita harus memperdebatkan pertukaran praktis dan filosofis dari memaksimalkan utilitas melalui AI, kita juga harus melakukan refleksi. Algoritma memunculkan pertanyaan mendasar mengenai cara kita mengorganisir hubungan sosial, politik, dan ekonomi hingga saat ini. Kini kita harus memutuskan apakah kita benar-benar ingin menggunakan struktur pembuatan keputusan di masa depan pada pengaturan sosial saat ini. Mengingat perpecahan politik yang baru-baru ini muncul di seluruh dunia, kini adalah saat yang tepat untuk mengambil langkah yang baru.
CAMBRIDGE – Algoritma sama biasnya dengan data yang mereka proses. Dan semua data bias. Bahkan statistik yang “resmi” tidak dapat dianggap sebagai “fakta” yang objektif dan abadi. Angka-angka yang pemerintah publikasikan mewakili keadaan masyarakat saat ini, yang dilihat melalui lensa yang dianggap relevan dan penting oleh mereka yang mengumpulkan data. Kategori dan klasifikasi yang digunakan untuk memahami data tidak netral. Sama seperti ketika kita mengukur apa yang kita lihat, kita cenderung hanya melihat apa yang kita ukur.
Seiring dengan menyebarnya algoritma pembuatan kebijakan ke bidang pembuatan kebijakan yang lebih luas, hal ini menyoroti bias sosial terhadap data yang kita kumpulkan yang dulu mengintai tanpa terlihat. Dengan mengambil struktur dan proses yang ada saat ini ke titik logis yang ekstrem, kecerdasan buatan (AI) memaksa kita untuk menghadapi suatu masyarakat yang kita telah ciptakan.
Masalahnya bukan hanya komputer dirancang untuk berpikir seperti perusahaan, seperti yang rekan saya Jonnie Penn dari Universitas Cambridge katakan. Namun, komputer juga berpikir seperti ekonom. Bagaimanapun, AI adalah versi lebih sempurna dari homo economicus yang bisa dibayangkan oleh manusia. Teknologi tersebut adalah agen yang rasional, konsisten secara logis, berorientasi tujuan yang mampu mencapai tujuan yang diinginkan dengan sumber daya komputasi yang terbatas. Sehubungan dengan “memaksimalkan utilitas,” AI jauh lebih efektif dibandingkan manusia.
“Utilitas” bagi ekonom serupa dengan “phlogiston” di kimia pada jaman dahulu. Ahli kimia pada di masa lalu berhipotesis bahwa materi yang mudah terbakar mengandung elemen tersembunyi – phlogiston – yang dapat menjelaskan mengapa substansi berubah ketika terbakar. Namun, meskipun mereka terus mencoba, para ilmuan tidak dapat mengonfirmasi hipotesis tersebut. Mereka tidak dapat melacak phlogiston karena alasan yang sama dengan para ekonom saat ini yang tidak dapat mengukur utilitas sebenarnya.
Para ekonom menggunakan konsep utilitas untuk menjelaskan mengapa orang membuat pilihan tertentu – apa yang mereka beli, tempat investasi, seberapa banyak bekerja: setiap orang berupaya untuk memaksimalkan utilitas sesuai dengan pilihan dan kepercayaan seseorang mengenai dunia, dan sesuai dengan batasan pendapatan atau sumber daya yang langka. Meskipun tidak nyata, utilitas adalah sebuah gagasan yang kuat. Wajar untuk menganggap bahwa semua orang berupaya sebaik mungkin untuk diri mereka sendiri.
Selain itu, gagasan ekonom mengenai utilitas berasal dari utilitarianisme klasik, yang bertujuan untuk mendapatkan sebanyak mungkin barang untuk sebanyak mungkin orang. Seperti ekonom modern yang mengikuti jejak John Stuart Mill, sebagian besar algoritma rancangan adalah utilitarian yang percaya bahwa jika suatu “hal” diketahui, maka “hal” tersebut bisa dimaksimalkan.
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
Namun asumsi ini dapat menyebabkan hasil yang menyulitkan. Misalnya, bagaimana algoritma digunakan untuk memutuskan apakah warga binaan layak mendapat pembebasan bersyarat. Sebuah studi penting pada tahun 2017 menemukan bahwa algoritma mempunyai kinerja yang lebih baik dalam memprediksi tingkat residivisme, dan dapat digunakan untuk mengurangi “tingkat pemenjaraan” sebesar lebih dari 40% “tanpa peningkatan tingkat kejahatan.” Oleh karena itu, AI di Amerika dapat digunakan untuk mengurangi populasi lembaga pemasyarakatan yang secara tidak proporsional merupakan orang kulit hitam. Namun apa yang terjadi ketika AI mengambil alih proses pembebasan bersyarat dan warga Amerika keturunan Afrika masih menjadi warga binaan dengan jumlah yang lebih tinggi dibandingkan warga kulit putih?
Pembuatan keputusan algoritma yang sangat efisien telah menimbulkan pertanyaan tersebut, sehingga memaksa kita untuk memutuskan secara tepat hasil seperti apa yang harus dimaksimalkan. Apakah kita hanya ingin mengurangi populasi lembaga pemasyarakatan, atau apakah kita harus juga mempertimbangkan keadilan? Ketika politik memungkinkan ambiguitas dan kompromi untuk menyamarkan pertukaran tersebut, kode komputer membutuhkan kejelasan.
Permintaan akan kejelasan tersebut menjadikan lebih sulit untuk mengabaikan sumber struktural dari kesenjangan sosial. Di era AI, algoritma akan memaksa kita untuk mengakui hasil dari konflik sosial dan politik di masa lalu yang diabadikan hingga masa kini melalui cara kita menggunakan data.
Karena kelompok seperti AI Ethics Initiative dan Partnership on AI, perdebatan yang lebih luas mengenai etika AI mulai muncul. Namun algoritma AI tentu hanya melakukan apa yang kode tentukan. Permasalahan sebenarnya terletak melampaui penggunaan pembuatan keputusan algoritma di perusahaan atau instansi pemerintah, dan berdampak pada dasar etika masyarakat kita.
Meskipun kita harus memperdebatkan pertukaran praktis dan filosofis dari memaksimalkan utilitas melalui AI, kita juga harus melakukan refleksi. Algoritma memunculkan pertanyaan mendasar mengenai cara kita mengorganisir hubungan sosial, politik, dan ekonomi hingga saat ini. Kini kita harus memutuskan apakah kita benar-benar ingin menggunakan struktur pembuatan keputusan di masa depan pada pengaturan sosial saat ini. Mengingat perpecahan politik yang baru-baru ini muncul di seluruh dunia, kini adalah saat yang tepat untuk mengambil langkah yang baru.