Wanita dalam AI: Ewa Luger meneroka bagaimana AI mempengaruhi budaya - dan sebaliknya

Untuk memberikan penghargaan yang layak - dan tertunda - kepada wanita akademik yang berfokus pada AI dan yang lainnya, TechCrunch telah menerbitkan siri wawancara yang memberi tumpuan kepada wanita luar biasa yang telah menyumbang kepada revolusi AI. Kami menerbitkan bahagian-bahagian ini sepanjang tahun ketika peningkatan AI berterusan, menyoroti kerja penting yang sering dilupakan. Baca profil lebih lanjut di sini.

Pada sorotan petang ini: Ewa Luger adalah pengarah bersama di Institut Design Informatics, dan pengarah bersama program Bridging Responsible AI Divides (BRAID), yang disokong oleh Majlis Penyelidikan Seni dan Kemanusiaan (AHRC). Beliau bekerjasama rapat dengan pembuat dasar dan industri, dan merupakan ahli Dewan Pakar Kementerian Kebudayaan, Media dan Sukan (DCMS) U.K., sebuah kohor ahli yang memberikan nasihat saintifik dan teknikal kepada DCMS.

Kajian Luger meneliti isu-isu sosial, etika, dan interaksi dalam konteks sistem berpusat data, termasuk sistem AI, dengan minat khusus dalam rekabentuk, pengedaran kuasa, bidang pengecualian, dan persetujuan pengguna. Sebelum ini, beliau adalah fellow di Institut Alan Turing, berkhidmat sebagai penyelidik di Microsoft, dan merupakan seorang fellow di Corpus Christi College di University of Cambridge.

Soal Jawab

Singkatnya, bagaimana awak mula dalam bidang AI? Apa yang menarikkan anda ke dalam bidang ini?

Selepas PhD saya, saya berpindah ke Microsoft Research, di mana saya bekerja dalam kumpulan pengalaman pengguna dan rekabentuk di makmal Cambridge (U.K.). AI adalah fokus utama di sana, jadi kerja saya secara semulajadi berkembang lebih sepenuhnya ke dalam bidang itu dan meluas ke isu-isu yang berkaitan dengan AI yang berpusat pada manusia (contohnya, pembantu suara bijak).

Cara saya pindah ke University of Edinburgh adalah kerana keinginan untuk meneroka isu-isu kejelasan algoritma, yang, pada tahun 2016, adalah bidang yang spesifik. Saya mendapati diri saya dalam bidang AI yang bertanggungjawab dan ketika ini menjalankan bersama program nasional tentang subjek itu, yang disokong oleh AHRC.

Kerja mana yang anda paling bangga di bidang AI?

Kerja saya yang paling banyak dirujuk ialah kertas tentang pengalaman pengguna pembantu suara (2016). Ia adalah kajian pertama dalam jenisnya dan masih sangat dirujuk. Tetapi kerja yang saya sendiri paling bangga adalah berterusan. BRAID adalah program yang saya pimpin bersama, dan direka khas dengan seorang ahli falsafah dan ahli etika. Ia merupakan usaha yang benar-benar multidisiplin yang direka untuk menyokong pembangunan ekosistem AI yang bertanggungjawab di U.K.

Dalam kerjasama dengan Institut Ada Lovelace dan BBC, ia bertujuan untuk menghubungkan pengetahuan seni dan kemanusiaan kepada dasar, peraturan, industri, dan sektor sukarela. Kita sering mengabaikan seni dan kemanusiaan apabila berhadapan dengan AI, yang selama ini kelihatan aneh kepada saya. Ketika COVID-19 melanda, nilai industri kreatif sangat penting; kami tahu bahawa belajar dari sejarah adalah penting untuk mengelak daripada membuat kesilapan yang sama, dan falsafah adalah akar kerangka etika yang telah menjaga kami selamat dan berinformasi dalam sains perubatan untuk bertahun-tahun. Sistem seperti Midjourney bergantung kepada kandungan seni dan rekabentuk sebagai data latihan, dan namun dengan cara yang aneh disiplin dan pengamal ini tidak mempunyai suara dalam bidang ini. Kami ingin mengubahnya.

Dengan lebih praktikal, saya telah bekerja dengan rakan industri seperti Microsoft dan BBC untuk menghasilkan cabaran AI yang bertanggungjawab, dan kami telah bekerjasama untuk mencari ahli akademik yang boleh menjawab cabaran tersebut. BRAID telah membiayai 27 projek sejauh ini, sebahagian daripadanya telah menjadi perseorangan fellowships, dan kami mempunyai panggilan baru yang akan hidup dalam masa terdekat.

Kami sedang merancang kursus dalam talian percuma untuk pemegang kepentingan yang ingin terlibat dengan AI, menyiapkan forum di mana kami berharap untuk melibatkan lintas sektor penduduk serta pemegang kepentingan lain untuk menyokong pentadbiran kerja - dan membantu menggemparkan beberapa mitos dan hiperbola yang melanda AI pada masa ini.

Saya tahu naratif seperti itu yang mendorong pelaburan semasa di sekitar AI, tetapi ia juga berkhidmat untuk membudayakan ketakutan dan kekeliruan di kalangan orang yang paling mungkin mengalami bahaya hilir. BRAID berjalan sehingga akhir 2028, dan dalam fasa seterusnya, kami akan menangani literasi AI, ruang perlawanan, dan mekanisme perlawanan dan pertikaman. Ia adalah program (berbanding relatif) besar pada £15.9 juta selama enam tahun, yang dibiayai oleh AHRC.

Bagaimana anda menavigasi cabaran dalam industri teknologi yang didominasi oleh lelaki dan, secara ekstensif, industri AI yang didominasi oleh lelaki?

Itu adalah soalan yang menarik. Saya akan mula dengan mengatakan bahawa isu-isu ini bukan sahaja ditemui dalam industri, yang sering dilihat begitu. Persekitaran akademik juga mempunyai cabaran yang sama dengan persamaan jantina. Saya kini adalah pengarah bersama sebuah institut - Design Informatics - yang menyatukan sekolah rekabentuk dan sekolah informatics, dan jadi saya katakan ada keseimbangan yang lebih baik dari segi jantina dan dari segi bidang isu budaya yang menghadkan wanita mencapai potensi profesional penuh mereka di tempat kerja.

Tetapi semasa PhD saya, saya berpangkalan di makmal yang didominasi oleh lelaki dan, untuk beberapa bahagian, ketika saya bekerja dalam industri. Mengabaikan kesan jelas daripada cuti kerjaya dan penjagaan, pengalaman saya terdiri daripada dua dinamik bersilangan. Pertama, terdapat standard yang lebih tinggi dan harapan yang diletakkan pada wanita - contohnya, untuk bersikap mesra, positif, baik, sokongan, pemain pasukan, dan sebagainya. Kedua, kami sering enggan bersikap tegas apabila datang kepada menawarkan diri kita untuk peluang yang lelaki yang kurang berkelayakan akan pergi agresif untuk. Oleh itu, saya terpaksa mendorong diri saya agak jauh dari zon selesa saya dalam banyak kes.

Perkara lain yang perlu saya lakukan adalah menetapkan had yang sangat teguh dan belajar bila untuk mengatakan tidak. Wanita sering dilatih untuk menjadi (dan dilihat sebagai) orang yang suka membuat orang senang. Kami sering dilihat sebagai orang yang boleh dipercayai untuk jenis tugas yang kurang menarik kepada rakan lelaki anda, malah ada yang menganggap bahawa kita adalah orang yang membuat teh atau mencatat nota dalam apa-apa mesyuarat, tanpa mengira status profesional. Dan hanya dengan mengatakan tidak, dan memastikan bahawa anda sedar akan nilai diri anda, hanya dengan cara itu anda akan dilihat dalam sinar yang berbeza. Ia terlalu umum untuk mengatakan bahawa ini benar untuk semua wanita, tetapi ia telah menjadi pengalaman saya. Saya perlu menyebut bahawa saya mempunyai pengurus wanita semasa saya dalam industri, dan dia hebat, jadi kebanyakan seksisme yang saya alami adalah di dalam akademik.

Secara keseluruhan, isu-isu ini adalah struktural dan budaya, dan oleh itu menavigasinya mengambil usaha - pertama sekali dengan membuatnya kelihatan dan kedua dengan secara aktif menangani mereka. Tidak ada penyelesaian mudah, dan sebarang navigasi meletakkan lebih banyak kerja emosi pada perempuan dalam bidang teknologi.

Apa nasihat yang awak berikan kepada wanita yang ingin memasuki bidang AI?

Nasihat saya sentiasa adalah untuk mencari peluang yang membolehkan anda menaik taraf, walaupun anda tidak rasa bahawa anda adalah 100% bersesuaian. Biar mereka menolak daripada anda menutup peluang tersebut sendiri. Kajian menunjukkan bahawa lelaki memilih peranan yang mereka fikir mereka boleh lakukan, tetapi wanita hanya memilih peranan yang mereka rasa mereka sudah boleh lakukan dengan baik. Saat ini, terdapat juga tren ke arah kesedaran jantina yang lebih dalam dalam proses pemilihan dan di kalangan penyandang dana, walaupun contoh-contoh baru-baru ini menunjukkan sejauh mana kita perlu pergi.

Jika kita melihat pusat penyelidikan AI Kementerian Penyelidikan dan Inovasi U.K., pelaburan multijuta ringgit yang baru-baru ini dikumumkan, semua sembilan pusat penyelidikan AI yang diumumkan baru-baru ini diketuai oleh lelaki. Kita seharusnya benar-benar melakar jalannya agar wakil jantina disertakan.

Apa beberapa isu yang paling mendesak menghadapi AI ketika ia berkembang?

Memandang pada latar belakang saya, mungkin tidak mengejutkan bahawa saya akan mengatakan bahawa isu-isu paling mendesak yang dihadapi AI adalah berkaitan dengan bahaya segera dan hilir yang mungkin berlaku jika kita tidak berhati-hati dalam reka bentuk, pentadbiran, dan penggunaan sistem AI.

Isu yang paling mendesak, dan satu yang telah kurang dikaji dengan mendalam, adalah kesan alam sekitar model berskala besar. Kita mungkin memilih pada satu ketika untuk menerima kesan itu jika manfaat penggunaan melebihi risikonya. Tetapi pada masa ini, kita sedang menyaksikan penggunaan meluas sistem seperti Midjourney yang berjalan hanya untuk keseronokan, dengan pengguna pada umumnya, jika tidak sepenuhnya, tidak sedar akan kesan setiap kali mereka menjalankan pertanyaan.

Isu yang mendesak yang lain adalah bagaimana kita merapatkan kelajuan inovasi AI dan keupayaan iklim peraturan untuk menyamai. Ia bukan isu baru, tetapi peraturan adalah instrumen terbaik yang kita miliki untuk memastikan bahawa sistem AI dibangunkan dan dilaksanakan secara bertanggungjawab.

Amat mudah untuk mengandaikan bahawa apa yang disebut demokratisasi AI - dengan ini, saya maksudkan sistem seperti ChatGPT yang sangat mudah didapati oleh sesiapa sahaja - adalah perkembangan yang positif. Walau bagaimanapun, kita sudah melihat kesan kandungan yang dihasilkan terhadap industri kreatif dan pengamal kreatif, terutamanya berhubung dengan hak cipta dan atribusi. Wartawan dan pengeluar berita juga berlumba-lumba untuk memastikan kandungan dan jenama mereka tidak terjejas. Titik terakhir ini mempunyai implikasi besar pada sistem demokrasi kita, terutamanya ketika kita memasuki kitaran penting pilihan raya. Kesan itu boleh benar-benar berubah dari segi geopolitik. Ia juga tidak akan menjadi senarai isu tanpa sekurang-kurangnya sindiran kepada prasangka.

Apa isu yang pengguna AI perlu sedar?

Saya tidak pasti samada ini berkaitan dengan syarikat yang menggunakan AI atau rakyat biasa, tetapi saya menganggap yang kedua. Saya fikir isu utama di sini adalah kepercayaan. Saya fikir, di sini, ramai pelajar kini menggunakan model bahasa besar untuk menghasilkan kerja akademik. Mengesampingkan isu moral, model-model ini masih tidak cukup baik untuk itu. Sitasi sering tidak tepat atau di luar konteks, dan kiasan beberapa kertas akademik hilang.

Tetapi ini bermaksud kepada satu titik yang lebih luas: Anda masih tidak boleh sepenuhnya mempercayai teks yang dihasilkan dan oleh itu hanya menggunakan sistem tersebut apabila konteks atau hasilnya adalah risiko rendah. Isu kedua yang jelas adalah kebenaran dan kesahihan. Apabila model semakin canggih, akan semakin sukar untuk pasti sama ada ia hasil dari manusia atau mesin. Kita masih belum membangunkan, sebagai masyarakat, literasi yang diperlukan untuk membuat pertimbangan yang munasabah tentang kandungan dalam landskap media yang kaya dengan AI. Peraturan lama literasi media digunakan dalam tempoh peralihan ini: Periksa sumber.

Isu lain adalah bahawa AI bukanlah kecerdasan manusia, dan oleh itu model-model tidak sempurna - mereka boleh diperbodoh atau dicorak dengan mudah sekiranya seseorang mempunyai niat.

Apa cara terbaik untuk membangunkan AI secara bertanggungjawab?

Alat terbaik yang kita miliki adalah penilaian kesan algoritma dan pematuhan peraturan, tetapi idealnya, kita mencari proses yang meminatkan yang secara aktif mencari untuk berbuat kebaikan lebih daripada hanya mencari untuk meminimumkan risiko.

Kembali kepada asas, langkah pertama yang jelas adalah menangani komposisi pemahiran - memastikan bahawa AI, informatics, dan sains komputer sebagai disiplin menarik wanita, orang kulit berwarna dan wakil dari budaya lain. Ia jelas bukan penyelesaian cepat, tetapi jelas kita akan menyelesaikan isu bias lebih awal jika ia lebih heterogen. Itu membawa saya kepada isu korpus data, dan memastikan bahawa ia sesuai dan usaha dilakukan untuk menyusunnya dengan betul dan membasmi sebarang bias yang wajar.

Lalu datang keperluan untuk melatih arkitek sistem untuk peka terhadap isu moral dan sosioteknik - menempatkan bobot yang sama pada ini seperti yang kita lakukan pada disiplin utama. Lalu kita perlu memberi arkitek sistem lebih masa dan kuasa untuk mempertimbangkan dan membetulkan sebarang isu yang berpotensi. Lalu kita sampai pada perkara tadbir urus dan co-reka bentuk, di mana pihak berkepentingan sepatutnya terlibat dalam tadbir urus dan reka bentuk konseptual sistem. Dan akhirnya, kita perlu menguji sistem secara menyeluruh sebelum ia sampai ke mana-mana subjek manusia.

Secara idealnya, kita juga harus memastikan bahawa terdapat mekanisme untuk melepaskan diri, pertikaman dan permintaan bantuan - walaupun banyak daripada ini diliputi oleh peraturan yang sedang berkembang. Ia kelihatannya jelas, tetapi saya juga akan menambah bahawa anda harus bersedia membunuh projek yang ditakdirkan gagal dalam mana-mana pengukuran tanggungjawab. Terdapat sesuatu yang sering disebut mitos belanja dibunuh di sini, tetapi jika projek tidak berkembang seperti yang anda harapkan, maka meningkatkan toleransi risiko anda daripada membunuhnya boleh mengakibatkan kematian produk pada waktunya.

Undang-undang AI baru-baru ini yang diambil alih oleh Kesatuan Eropah sudah mempunyai banyak ini, tentunya.

Bagaimana pelabur boleh lebih mendorong untuk AI yang bert