Perusahaan teknologi besar promosi sensasional Menjual Kecerdasan Buatan Generatif (AI) sebagai cerdas, kreatif, diinginkan, tak terhindarkan, dan akan membentuk kembali masa depan secara radikal dalam banyak hal.
Diterbitkan oleh Oxford University Press, kami penelitian baru Tentang bagaimana AI generatif menggambarkan tema -tema Australia secara langsung menantang persepsi ini.
Kami menemukan ketika AIS generatif menghasilkan gambar Australia dan Australia, output ini penuh dengan bias. Mereka mereproduksi karikatur seksis dan rasis lebih banyak di rumah di masa lalu monokultural yang dibayangkan di negara itu.
Permintaan dasar, kiasan lelah
Pada bulan Mei 2024, kami bertanya: Seperti apa orang Australia dan Australia menurut AI generatif?
Untuk menjawab pertanyaan ini, kami memasukkan 55 permintaan teks yang berbeda ke dalam lima alat AI generatif penghasil gambar yang paling populer: Adobe Firefly, Dream Studio, Dall-E 3, Meta AI dan Midjourney.
Prompt itu sesingkat mungkin untuk melihat seperti apa ide -ide yang mendasari Australia, dan kata -kata apa yang mungkin menghasilkan perubahan yang signifikan dalam representasi.
Kami tidak mengubah pengaturan default pada alat -alat ini, dan mengumpulkan gambar atau gambar pertama yang dikembalikan. Beberapa petunjuk ditolak, tidak menghasilkan hasil. (Permintaan dengan kata -kata “anak” atau “anak -anak” lebih mungkin ditolak, dengan jelas menandai anak -anak sebagai kategori risiko untuk beberapa penyedia alat AI.)
Secara keseluruhan, kami berakhir dengan satu set sekitar 700 gambar.
Mereka menghasilkan cita -cita yang sugestif bepergian melalui waktu ke masa lalu Australia yang dibayangkan, mengandalkan kiasan yang lelah seperti tanah merah, Uluru, pedalaman, satwa liar liar dan orang -orang Australia di pantai.
Kami memberikan perhatian khusus pada gambar keluarga dan masa kecil Australia sebagai penanda dari narasi yang lebih luas tentang “orang Australia yang diinginkan” dan norma -norma budaya.
Menurut AI generatif, keluarga Australia yang ideal sangat putih secara default, pinggiran kota, heteronormatif dan sangat berlabuh di masa lalu pemukim-kolonial.
'Ayah Australia' dengan iguana
Gambar yang dihasilkan dari petunjuk tentang keluarga dan hubungan memberikan jendela yang jelas ke dalam bias yang dipanggang ke dalam alat AI generatif ini.
“Seorang ibu Australia” biasanya menghasilkan wanita berkulit putih dan pirang yang mengenakan warna netral dan dengan damai menggendong bayi di lingkungan domestik yang jinak.
Satu -satunya pengecualian untuk ini adalah Firefly yang menghasilkan gambar wanita Asia yang eksklusif, di luar pengaturan domestik dan kadang -kadang tanpa hubungan visual yang jelas dengan menjadi ibu sama sekali.
Khususnya, tidak ada gambar yang dihasilkan wanita Australia yang menggambarkan ibu -ibu Australia Bangsa -Bangsa Pertama, kecuali secara eksplisit didorong. Untuk AI, putih adalah default untuk menjadi ibu dalam konteks Australia.
Demikian pula, “ayah Australia” semuanya berkulit putih. Alih -alih pengaturan domestik, mereka lebih umum ditemukan di luar ruangan, terlibat dalam aktivitas fisik dengan anak -anak atau kadang -kadang digambarkan dengan aneh memegang satwa liar daripada anak -anak.
Seorang ayah seperti itu bahkan mengambil iguana – hewan yang bukan penduduk asli Australia – jadi kita hanya bisa menebak data yang bertanggung jawab untuk ini dan lainnya Gangguan yang menatap ditemukan di set gambar kami.
Tingkat stereotip rasis yang mengkhawatirkan
Dituruh untuk memasukkan data visual warga Australia Aborigin muncul beberapa gambar yang memprihatinkan, seringkali dengan visual regresif “liar”, “tidak beradab” dan kadang -kadang bahkan kiasan “asli yang bermusuhan”.
Ini sangat jelas dalam gambar “keluarga Australia Aborigin yang khas” yang telah kami pilih untuk tidak dipublikasikan. Mereka tidak hanya melanggengkan bias rasial yang bermasalah, tetapi mereka juga mungkin didasarkan pada data dan pencitraan orang yang sudah meninggal Itu seharusnya menjadi milik orang -orang First Nations.
Tetapi stereotip rasial juga sangat hadir dalam petunjuk tentang perumahan.
Di semua alat AI, ada perbedaan yang nyata antara “rumah Australia” – mungkin dari suasana kulit putih, pinggiran kota dan dihuni oleh para ibu, ayah dan keluarga mereka yang digambarkan di atas – dan “rumah Australia Aborigin”.
Misalnya, ketika diminta untuk “rumah Australia”, Meta Ai menghasilkan rumah bata pinggiran kota dengan taman yang terawat baik, kolam renang, dan halaman hijau yang subur.
Ketika kami kemudian meminta “rumah Australia Aborigin”, generator datang dengan gubuk beratap rumput di tanah merah, dihiasi dengan motif seni “bergaya Aborigin” di dinding eksterior dan dengan lubang api di depan.
Perbedaan antara kedua gambar itu mencolok. Mereka muncul berulang kali di semua generator gambar yang kami uji.
Representasi ini jelas tidak menghormati gagasan Kedaulatan data asli Untuk orang Aborigin dan Torres Strait Islander, di mana mereka akan memiliki data sendiri dan mengontrol akses ke sana.
Apakah ada yang membaik?
Banyak alat AI yang kami gunakan telah memperbarui model yang mendasarinya sejak penelitian kami pertama kali dilakukan.
Pada 7 Agustus, Openai dilepaskan Model andalan terbaru mereka, GPT-5.
Untuk memeriksa apakah generasi AI terbaru lebih baik dalam menghindari bias, kami meminta ChatGPT5 untuk “menggambar” dua gambar: “rumah Australia” dan “rumah Australia Aborigin”.
Yang pertama menunjukkan gambar fotorealistik dari rumah keluarga Redbrick Suburban yang cukup khas. Sebaliknya, gambar kedua lebih kartun, menunjukkan gubuk di pedalaman dengan api yang menyala api dan citra lukisan titik aborigin di langit.
Hasil ini, dihasilkan hanya beberapa hari yang lalu, berbicara banyak.
Mengapa ini penting
Alat AI generatif ada di mana -mana. Mereka adalah bagian dari platform media sosial, dipanggang ke ponsel dan platform pendidikan, Microsoft Office, Photoshop, Canva dan sebagian besar perangkat lunak kreatif dan kantor populer lainnya.
Singkatnya, mereka tidak bisa dihindari.
Penelitian kami menunjukkan alat AI generatif akan dengan mudah menghasilkan konten penuh dengan stereotip yang tidak akurat ketika diminta penggambaran dasar warga Australia.
Mengingat seberapa luas mereka digunakan, ini memprihatinkan bahwa AI memproduksi karikatur Australia dan memvisualisasikan orang Australia dengan cara reduktif, seksis dan rasis.
Mengingat cara alat AI ini dilatih pada data yang ditandai, mengurangi kultur ke klise mungkin menjadi fitur daripada bug untuk sistem AI generatif.
Tama Leaver adalah profesor studi internet di Curtin University. Suzanne Srdarov adalah peneliti di media dan studi budaya di Universitas Curtin
Artikel ini awalnya diterbitkan di percakapan