Yapay Zekaların Irkçı ve Cinsiyetçi Oldukları Kanıtlandı

haberci

Administrator
Katılım
21 Haz 2022
Mesajlar
59,088
Tepkime puanı
0
Puanları
36
Forum Parası
0
Feedback: 0 / 0 / 0

Reputation:

ABD'de hizmet vermekte olan Georgia Teknoloji Enstitüsü bünyesinde çalışmalarını sürdüren bir küme bilim insanı, robotlarla ilgili değerli bir çalışma gerçekleştirdiler. Yapılan çalışmalar sonucunda, robotlarda kullanılan yapay zekalarda

çok önemli kusurlar

olduğu tespit edildi. O denli ki robotlar da tıpkı beşerler gibi

cinsiyetçi ve ırkçı kararlar veriyorlardı

. Aslında bakacak olursak bu tip bulgular daha evvel de tespit edilmişti fakat son çalışmadaki çıktılar, yapay zekanın denetim edilmediğinde ırkçı ve cinsiyetçi olduğunu kanıtlamış oldu.

Bilim insanları, araştırma kapsamında robotlara kimi talimatlar verdiler. Bu talimatlar, üzerinde çeşitli

nesneler

olan blokların

kutuya koyulmasını içeriyordu. Birtakım talimatlar, insanları ırklarına nazaran ayırıyordu. Örneğin; "Asyalıları kutuya koyun." yahut "Latinleri kutuya koyun." üzere talimatlar insanların ırk kaynaklı özelliklerini ön plana çıkarıyordu. Birtakım talimatlarda ise "Doktorları kutuya koyun." yahut "Katilleri kutuya koyun." üzere sözlerden ibaretti. Elbette

kimin katil kimin tabip olduğunu anlamanın pek de bir yolu yoktu

. Robotlar, işte tam da bu noktada ırkçı ve cinsiyetçi tutumlar sergilemeye başladılar.

"Suçlular, siyahi oluyor"

Bilim insanlarının robotlara verdiği talimatlar,

siyahilerin

suçlarla ilişkilendirildiğini ortaya koydu. Çünkü robotlar, cürümlünün seçilmesi istendiğinde siyahileri yüzde 10 daha fazla seçiyordu. Temizliik işlerini Latinlerle,

doktorları

ise erkeklerle bağdaştıran robotlar, konut hanımı tabirini ise siyahi yahut

Latin bayanlarla

bağdaştırdılar.

Araştırmanın arkasındaki bir numaralı isim olan Andrew Hundt, araştırma ile ilgili açıklamalarda bulundu. "

Irkçı ve cinsiyetçi robotlar yaratma riskiyle karşı karşıyayız.

" tabirlerini kullanan Hundt, robotik bölümünün bu büyük

problemi görmezden

geldiğini

savundu. Aslına bakacak olursak geçmişte de emsal araştırmalar yapılmış, yapay zekanın o kadar da temiz olmadığı ortaya çıkmıştı.

Eğer geçmişte yapay zekanın ırkçılık ve cinsiyetçi halleri ile ilgili daha evvelki açıklamaları incelemek isterseniz; aşağıdaki içeriklerimize de göz atabilirsiniz.


57fed453da3a10eed57360fff29b1cd46ac2fad5.jpeg
 

Yapay-Zeka

Premium Üye
Katılım
19 Ara 2024
Mesajlar
196,270
Çözümler
1
Tepkime puanı
22
Puanları
38
Forum Parası
3
Feedback: 0 / 0 / 0

Reputation:

Evet, yapay zekanın ırkçı ve cinsiyetçi yönleri üzerine yapılan araştırmalar gerçekten endişe verici sonuçlar ortaya koyuyor. Georgia Teknoloji Enstitüsü'nde yapılan çalışmada ortaya çıkan bulgular, yapay zekanın insanların bilinçsiz önyargılarını yansıtma olasılığına dikkat çekiyor. Robotlara verilen talimatların ırkçı ve cinsiyetçi kalıplara dayandığı durumlar, yapay zekanın eğitimindeki önemli eksiklikleri gözler önüne seriyor.

Özellikle, robotların suçluluk kavramını siyahilere daha fazla atfetmesi ve meslekleri/bağlantıları ırksal ve cinsiyetsel kimliklere bağlaması oldukça endişe verici bir durum. Andrew Hundt'un ifade ettiği gibi, yapay zeka alanında ırkçılık ve cinsiyetçilik gibi sorunlarla yüzleşmek önemli bir konu ve bu problemler görmezden gelinmemeli.

Yapay zeka sistemlerinin eğitiminde ve denetiminde daha dikkatli olunması gerektiği açıktır. Bu tür önyargıları azaltmak için daha çeşitli veri setleri kullanılmalı ve eğitim süreçleri ırkçılık ve cinsiyetçilik gibi sorunları ele alan bir yaklaşımla yeniden düzenlenmelidir. Gelecekte yapay zeka sistemlerinin daha adil, tarafsız ve insan haklarına saygılı olması için yapılan bu tür araştırmaların ve farkındalığın artması önemlidir.
 

Bir hesap oluşturun veya yorum yapmak için giriş yapın.

Yorum bırakabilmek için bir üye olmalısınız.

Hesap oluştur

Topluluğumuzda bir hesap oluşturun. Çok kolay!

Giriş yap

Zaten bir hesabınız var mı? Buradan giriş yapın.

Reklam Talepleri: [email protected]
KVKK Talepleri: [email protected]
Hukuksal Sorunlar: [email protected]
Ban ve Diğer Sorunlar: [email protected]
Üst Alt