Günün Yazısı - Kodlanmış On yargılar ve Medya - 18.04.2021

Han

En Güzel Edep Güzel Ahlaktir...!
Kullanıcı
Katılım
20 Ocak 2021
Mesajlar
7,620
Tepkime puanı
6,990
Puanları
0
Konum
Huzur🧿
Cinsiyet
Erkek

Kodlanmış ön yargılar ve medya​

İnsan neyse yarattığı makine de onun bir sureti oluyor. Yapay zekâ dünyayı olduğu gibi kopyaladığı için algoritmaların kararları da ırkçı, cinsiyetçi, ayrımcı olabiliyor. Medya, yapay...​


Daniel Santos. Houston’da bir okulda öğretmen. İki kez yılın öğretmeni ve bir kez ayın öğretmeni seçildi. Mesleki başarısı beklenenin ötesine geçtiği için birçok kez takdirname aldı. Farklı okulların idarecileri ve müfettişler tarafından defalarca ödüllendirildi. Zaman içerisinde teknoloji okul yönetimlerini de etkiledi ve öğretmenlerin eğitime kattığı değeri puanlayan algoritmalar devreye sokuldu. Puanlama yapan bir algoritma, Santos’u kötü bir öğretmen olarak sınıflandırıldığı için işine son verildi.

Hangi öğretmenin işte kalıp kalmayacağına bir makine karar verince, federal mahkemede bir dava açıldı ve algoritmanın öğretmenler hakkında böylesine adaletsiz bir sonuca nasıl vardığının açıklaması istendi. Bu modeli yaratan şirket, algoritma düzeneğini gizli tuttuğu için öğretmenler atılma gerekçelerini öğrenemedi. Ama mahkeme, kimsenin anlayamadığı bir şekilde işten çıkarıldıkları için öğretmenlerin adil yargılanma haklarının ihlal edildiğine karar verdi.

Tonya LaMyers. Philadelphia’da siyasi bir kadın. Sabıkalı. Ancak şartlı tahliye edildikten sonraki dört yılda yaptığı hizmetlerden ötürü belediye tarafından defalarca ödüllendirildi. Düzenli bir iş sahibi oldu. Suça bulaşmadı. Buna rağmen yüz tarama sisteminde yüksek risk grubunda yer aldığı için geçmişinden kurtulamadı. Risk oluşturduğuna yapay zekâ karar verdi. Algoritmanın puanlaması hem yargıcın hükmünü hem de temyiz sonucunu geçersiz kıldı.

Amerika’da birçok eyalette yargıçlar için, yeniden suç işleme olasılığını yaş, cinsiyet, mahkûmiyet ve sabıka göz önünde bulundurarak tahmin eden bir algoritma oluşturuldu. Dolayısıyla insana dair ırkçılık, cinsiyetçilik gibi ön yargılar yapay zekâda da kendini gösterdi. Bu bir araştırmayla da kanıtlandı. Amerika’da yapılan bir araştırma algoritmaların ırk ayrımı yaptığını ortaya koydu. Siyahiler yüksek risk puanıyla etiketlenirken, beyazlar daha düşük risk grubunda yer aldı.

Bilgisayar bilimcisi Joy Buolamwini, siyahi genç bir kadın. MIT medya laboratuvarında yüz tanıma teknolojileri üzerine araştırma yaparken, bazı algoritmaların koyu tenli yüzleri tespit edemediğini veya kadınları doğru bir şekilde sınıflandıramadığını saptadı. Araştırmasını derinleştirince de algoritmaların birçok alanda insanların ön yargılarıyla beslendiğini ortaya çıkardı. Bu örnekler “Coded Bias” adlı belgeselden.

“Coded Bias” belgeseli, yapay zekânın ön yargıları üzerine kurulu. Belgesel, “Özgürlüklerimiz üzerindeki hükmünü artıran yapay zekâyla biçimlendirilmiş bir toplumda yaşamanın insan hayatına etkisi nedir? Ya da “Ayrımcılık ve ön yargılarla beslenmiş, nasıl işlediğini bilmediğimiz algoritmalarla var olan bir sistem adil olabilir mi?” gibi sorulara yanıt bulmaya çalışıyor.


Çünkü algoritmalar, geçmiş bilgiyi kullanarak, gelecek tahmini yapıyor… Mesela sizin bir borcu ödeyip ödemeyeceğinize, bankadan bir kredi talebinize ya da bir üniversiteye kabul edilip edilmeyeceğinize artık algoritmalar karar veriyor. Sorun da burada. Yapay zekâ dünyayı olduğu gibi kopyalıyor. Hangi bilgi sunulursa o şekli alıyor. Yani insan neyse yarattığı makine de onun bir sureti oluyor. Irkçı, cinsiyetçi, ön yargılı…
Medya; teknolojideki yenilikleri “gelişme” gibi sunarken, insanın geçmişine bakarak geleceğine karar veren ön yargılı algoritmaların insana nasıl zarar verebildiği gerçeğini de göz ardı etmemeli.


Belma Akçura

 

SuMBuL

Tam güldüğün yerde başlar şiirler... Yang❤️
Moderator
Katılım
4 Ara 2020
Mesajlar
2,331
Tepkime puanı
4,612
Puanları
113
Konum
...
Cinsiyet
Kadın

Kodlanmış ön yargılar ve medya​

İnsan neyse yarattığı makine de onun bir sureti oluyor. Yapay zekâ dünyayı olduğu gibi kopyaladığı için algoritmaların kararları da ırkçı, cinsiyetçi, ayrımcı olabiliyor. Medya, yapay...​


Daniel Santos. Houston’da bir okulda öğretmen. İki kez yılın öğretmeni ve bir kez ayın öğretmeni seçildi. Mesleki başarısı beklenenin ötesine geçtiği için birçok kez takdirname aldı. Farklı okulların idarecileri ve müfettişler tarafından defalarca ödüllendirildi. Zaman içerisinde teknoloji okul yönetimlerini de etkiledi ve öğretmenlerin eğitime kattığı değeri puanlayan algoritmalar devreye sokuldu. Puanlama yapan bir algoritma, Santos’u kötü bir öğretmen olarak sınıflandırıldığı için işine son verildi.

Hangi öğretmenin işte kalıp kalmayacağına bir makine karar verince, federal mahkemede bir dava açıldı ve algoritmanın öğretmenler hakkında böylesine adaletsiz bir sonuca nasıl vardığının açıklaması istendi. Bu modeli yaratan şirket, algoritma düzeneğini gizli tuttuğu için öğretmenler atılma gerekçelerini öğrenemedi. Ama mahkeme, kimsenin anlayamadığı bir şekilde işten çıkarıldıkları için öğretmenlerin adil yargılanma haklarının ihlal edildiğine karar verdi.

Tonya LaMyers. Philadelphia’da siyasi bir kadın. Sabıkalı. Ancak şartlı tahliye edildikten sonraki dört yılda yaptığı hizmetlerden ötürü belediye tarafından defalarca ödüllendirildi. Düzenli bir iş sahibi oldu. Suça bulaşmadı. Buna rağmen yüz tarama sisteminde yüksek risk grubunda yer aldığı için geçmişinden kurtulamadı. Risk oluşturduğuna yapay zekâ karar verdi. Algoritmanın puanlaması hem yargıcın hükmünü hem de temyiz sonucunu geçersiz kıldı.

Amerika’da birçok eyalette yargıçlar için, yeniden suç işleme olasılığını yaş, cinsiyet, mahkûmiyet ve sabıka göz önünde bulundurarak tahmin eden bir algoritma oluşturuldu. Dolayısıyla insana dair ırkçılık, cinsiyetçilik gibi ön yargılar yapay zekâda da kendini gösterdi. Bu bir araştırmayla da kanıtlandı. Amerika’da yapılan bir araştırma algoritmaların ırk ayrımı yaptığını ortaya koydu. Siyahiler yüksek risk puanıyla etiketlenirken, beyazlar daha düşük risk grubunda yer aldı.

Bilgisayar bilimcisi Joy Buolamwini, siyahi genç bir kadın. MIT medya laboratuvarında yüz tanıma teknolojileri üzerine araştırma yaparken, bazı algoritmaların koyu tenli yüzleri tespit edemediğini veya kadınları doğru bir şekilde sınıflandıramadığını saptadı. Araştırmasını derinleştirince de algoritmaların birçok alanda insanların ön yargılarıyla beslendiğini ortaya çıkardı. Bu örnekler “Coded Bias” adlı belgeselden.

“Coded Bias” belgeseli, yapay zekânın ön yargıları üzerine kurulu. Belgesel, “Özgürlüklerimiz üzerindeki hükmünü artıran yapay zekâyla biçimlendirilmiş bir toplumda yaşamanın insan hayatına etkisi nedir? Ya da “Ayrımcılık ve ön yargılarla beslenmiş, nasıl işlediğini bilmediğimiz algoritmalarla var olan bir sistem adil olabilir mi?” gibi sorulara yanıt bulmaya çalışıyor.


Çünkü algoritmalar, geçmiş bilgiyi kullanarak, gelecek tahmini yapıyor… Mesela sizin bir borcu ödeyip ödemeyeceğinize, bankadan bir kredi talebinize ya da bir üniversiteye kabul edilip edilmeyeceğinize artık algoritmalar karar veriyor. Sorun da burada. Yapay zekâ dünyayı olduğu gibi kopyalıyor. Hangi bilgi sunulursa o şekli alıyor. Yani insan neyse yarattığı makine de onun bir sureti oluyor. Irkçı, cinsiyetçi, ön yargılı…
Medya; teknolojideki yenilikleri “gelişme” gibi sunarken, insanın geçmişine bakarak geleceğine karar veren ön yargılı algoritmaların insana nasıl zarar verebildiği gerçeğini de göz ardı etmemeli.


Belma Akçura

algoritmaymis pehhh insan yargısı yetmiyor mu gözle görülen değil de makinanin tahmini midir yani asıl olan 🙄 ne günlere kaldık 😔
 

SuMBuL

Tam güldüğün yerde başlar şiirler... Yang❤️
Moderator
Katılım
4 Ara 2020
Mesajlar
2,331
Tepkime puanı
4,612
Puanları
113
Konum
...
Cinsiyet
Kadın
Paylasim icin Tesekkür Ederim @Han ❤️
 
Üst
Alt