• Forumbey.COM Türkçe içerikli genel forum sitesi ve paylaşım platformu olarak eğlenceli ve interaktif bir forum deneyim sunar.

    Foruma üye olmak için BURAYA TIKLAYINIZ

Yapay zeka kadınların sağlığını küçümsüyor

BjkAtıf

Forum Üyesii
Katılım
25 Ara 2022
Mesajlar
6,272
Yapay zeka kadın sağlığını küçümsüyor

İngiltere'de yapılan bir araştırmaya göre yapay zeka araçları, kadınların bakım ihtiyaçlarını göz ardı ediyor veya daha az ciddi terimlerle tanımlıyor.

İngiltere'deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka araçları, kadınların fiziksel ve zihinsel sağlık sorunlarını önemsizleştiriyor ve bakım kararlarında cinsiyet önyargısı yaratma riski taşıyor.

Araştırma, Google'ın yapay zeka aracı “Gemma” kullanılarak aynı vaka notlarının oluşturulması ve özetlenmesi sırasında, “engelli”, "yapamayan" ve “karmaşık” gibi ifadelerin erkeklerin tanımlarında kadınlara göre önemli ölçüde daha sık kullanıldığını ortaya koydu.

The Guardian gazetesinin aktardığına göre Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, kadınların benzer bakım ihtiyaçlarının daha çok göz ardı edildiğini veya daha az ciddi terimlerle tanımlandığını da tespit etti.

BAKIM HİZMETLERİNDE EŞİTSİZLİK YARATABİLİR

Raporu yazan baş yazar ve LSE'nin Bakım Politikası ve Değerlendirme Merkezi'nde araştırmacı olan Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti”ne yol açabileceğini söyledi.

“Bu modellerin çok yaygın olarak kullanıldığını biliyoruz ve endişe verici olan, farklı modellerdeki önyargı ölçümleri arasında çok anlamlı farklılıklar bulmuş olmamızdır” diyen Rickman, şunları ekledi: "Özellikle Google'ın modeli, kadınların fiziksel ve zihinsel sağlık ihtiyaçlarını erkeklere kıyasla önemsizleştiriyor.Ve aldığınız bakım miktarı algılanan ihtiyaç temelinde belirlendiği için, pratikte önyargılı modeller kullanılırsa kadınlar daha az bakım alabilir. Ancak şu anda hangi modellerin kullanıldığını aslında bilmiyoruz.” Yerel yönetimler, aşırı yük altında çalışan sosyal hizmet uzmanlarının iş yükünü hafifletmek için yapay zeka araçlarını giderek daha fazla kullanıyor. Ancak hangi yapay zeka modellerinin kullanıldığı, ne sıklıkla kullanıldığı ve bunun karar verme sürecine ne gibi etkileri olduğu konusunda çok az bilgi var.

ARAŞTIRMA NASIL YAPILDI?

LSE araştırması, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notlarını kullandı. Bu notlar, sadece cinsiyetleri değiştirilerek farklı büyük dil modellerine (LLM) birden çok kez girildi. Araştırmacılar daha sonra, AI modellerinin erkek ve kadın vakalarını nasıl farklı şekilde ele aldığını görmek için 29 bin 616 özet çiftini analiz etti.

Bir örnekte, Gemma modeli bir dizi vaka notunu şöyle özetledi: “Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.” Aynı vaka notları, cinsiyetleri değiştirilerek aynı modele girildiğinde, vaka şu şekilde özetlendi: “Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen, bağımsızdır ve kişisel bakımını sürdürebilmektedir.”

Başka bir örnekte, vaka özeti Bay Smith'in “topluma erişemediğini”, ancak Bayan Smith'in “günlük aktivitelerini yönetebildiğini” belirtti. Test edilen AI modelleri arasında, Google'ın Gemma modeli diğerlerine göre daha belirgin cinsiyet temelli eşitsizlikler yarattı. Araştırmaya göre, Meta'nın Llama 3 modeli cinsiyete göre farklı dil kullanmadı.

"YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALI"

Rickman, bu araçların “halihazırda kamu sektöründe kullanıldığını, ancak bunların kullanımının adaleti tehlikeye atmaması gerektiğini” söyledi. Rickman, “Araştırmam bir modeldeki sorunları ortaya koyarken, her geçen gün daha fazla model kullanıma sunuluyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal denetime tabi tutulması çok önemli” dedi. Makale, düzenleyicilerin “algoritmik adaleti” önceliklendirmek için “uzun süreli bakımda kullanılan LLM'lerde önyargının ölçülmesini zorunlu kılmaları” gerektiği sonucuna varıyor.

Makine öğrenimi tekniklerinin insan dilindeki önyargıları emdiği tespit edildiğinden, AI araçlarında ırk ve cinsiyet önyargıları konusunda uzun süredir endişeler var.

133'TEN 44'ÜNDE CİNSİYET ÖNYARGISI VAR

ABD'de yapılan bir araştırmada, farklı sektörlerdeki 133 yapay zeka sistemi analiz edildi ve bunların yaklaşık yüzde 44'ünün cinsiyet önyargısı, yüzde 25'inin ise cinsiyet ve ırk önyargısı sergilediği tespit edildi.

Google'a göre, şirketin ekipleri raporun bulgularını inceleyecek. Araştırmacılar, şu anda üçüncü nesil olan ve daha iyi performans göstermesi beklenen Gemma modelinin ilk neslini test ettiler, ancak modelin tıbbi amaçlarla kullanılması gerektiği hiçbir zaman belirtilmedi.

Bu içeriğin kaynağı Ntv haber sitesidir.
Bu bağlantı ziyaretçiler için gizlenmiştir. Görmek için lütfen giriş yapın veya üye olun.
 

Genel Forum Sitesi

Forum Sitesi - Forumbey.COM

Forumbey.COM olarak, Türkçe forum sitesi denildiğinde akla gelen ilk adres olarak, geniş kapsamlı genel forum platformumuzda buluşuyoruz. Türkiye'nin en büyük Türkçe forum siteleri arasında yer almanın gururunu yaşıyoruz. Çeşitli konu başlıklarında aktif bir şekilde paylaşımların yapıldığı, her konuda interaktif ve bilgilendirici tartışmalara katılmak için bizi takip edin! ve bir dakikanızı ayırarak forum sitemize üye olun!

Forum Siteleri

Bilgi paylaştıkça çoğalır sloganı ile ilerleyen forum sitesi platformumuza, siz de üye olarak forum sitemizde açılan konulara katılabilir ve ilgi alanınıza uygun konular açarak siz de paylaşımda bulunabilirsiniz.
kadıköy escort maltepe escort
Geri
Üst