in , ,

Robotların Denetimi İçin “Kara Kutu” Önerisi

Yapay zeka ile ilgili teknolojik gelişmeler hız kazandıkça yasal düzenlemelerin ve denetim mekanizmalarının eksikliği daha çok hissedilir oldu. İşin uzmanları ilk olarak robotların bir ”etik kara kutu”ya sahip olmaları gerektiğini düşünüyor.

  • Yapay zeka etiği ve denetimi konusunda öneriler çeşitlenmeye devam ediyor. Bunlardan pratikliğiyle öne çıkan ‘etik kara kutu’ çözümü uzmanlarca destekleniyor.
  • Bu özelliğin tasarım ve teknolojik gelişime katkıda bulunmasının yanı sıra güvenlik tedbiri olarak zorunlu kılınması, daha sağlıklı bir çalışma ve iş birliği için önemli.
  • Kara kutular ile hem kaza tespitleri uzmanlarca daha kolay yapılacak, hem de daha sonra oluşması muhtemel hatalar için kıymetli veriler sağlanacak.
  • 2016 yılında teknoloji devlerinin bir araya gelmesiyle ”İnsan ve Topluma Fayda Sağlamak için Yapay Zeka Ortaklığı” kurulmuştu. Bu ortaklık, AI’nın etik, adil ve kapsayıcı yollarla konuşlandırılmasına odaklanıyor.
  • Sosyal yardım organizasyonu olan Geleceğin Yaşam Enstitüsü (FLI) ise, robotik tasarımlar için temel yasalar ve etik kurallar içeren Asilomar AI İlkeleri’ni oluşturdu. 

Hayata karışan robotlar

Bristol’deki Batı İngiltere Üniversitesi Robot Etiği Profesörü Alan Winfield ve Oxford Üniversitesi İnsan Merkezli Hesaplama Profesörü Marina Jirotka, robotların “etik bir kara kutu” ile donatılması gerektiğini düşünüyor. Bu kara kutu, uçaklarda pilotların kararlarını takip ve kayıt altına alarak, kaza halinde araştırmacıların kaza nedenini anlaması için tasarlanan, havacılığın güvenlik donanımının etiğe özel bir versiyonu olarak tanımlanabilir. Robotlar, fabrikaların ve laboratuarların kontrol ve sınırlarını aşarak insanlarla her zamankinden daha çok etkileşime girmeye başladığından, bu nitelikteki güvenlik tedbirlerinin giderek daha da önem kazanması bekleniyor.

Havacılığın önemli katkısı

Winfield ve Jirotka, robotik firmalarının yalnızca teknoloji ve tasarıma odaklanmalarının yetersiz olduğunu, havacılık endüstrisinin sağladığı güvenlik kaydı örneğini taklit etmeleri, sıkı güvenlik protokolleri ve kaza araştırmaları yapmaları gerektiğini savunuyor. Nihayetinde bu endüstri bizlere, araştırmacıların kazaların sebebini tespit edebilmesini, olası kazaları önlemesini ve güvenlik konusunda dersler alabilmesini sağlayacak kara kutuları ve kokpit ses kayıt cihazlarını kazandırmış bulunuyor.

Winfield, The Guardian’a verdiği demeçte: “Ciddi kazalar soruşturmaya ihtiyaç duyacak, ancak kaza araştırmacısı ortaya çıktığında bir veri kataloğu bulunmadığını, kaza anında robotun ne yaptığına dair herhangi bir kayıt olmadığını keşfederseniz ne yaparsınız? Olan şeyleri anlatmak neredeyse imkânsız ” ifadelerini kullanıyor. Robotik bağlamda uygulanan etik bir kara kutu, tüm kararları, karar verme esaslarını, hareketleri ve robot ana bilgisayarı için duyusal verileri kaydeder. Kara kutu tarafından sağlanan veriler, robotların eylemlerinin insanların anlayabilecekleri dilde açıklamasına, ilişkilerin ve kullanıcı deneyiminin geliştirilmesine yardımcı olabilir.

AI Etiğini Yönetmek

Yapay zeka (AI) etiğini yönetmekle ilgilenen yegane uzmanlar Winfield ve Jirotka değil. Kuzey Carolina Duke Üniversitesi’ndeki İnsan ve Otonomi Laboratuvarı Direktörü Missy Cummings, Mart ayında BBC’ye yaptığı açıklamada, AI gözetiminin henüz çözülemeyen önemli bir sorun olduğunu belirtti. “Şu anda bizim yaygın olarak kabul gören bir yaklaşımımız yok” diyen Cummings bu sistemleri test etmek için bir endüstri standardı olmaksızın, söz konusu teknolojilerin yaygın olarak uygulanmasının zorluğuna dikkat çekti.

Bugüne dek neler yapıldı?

2016 yılının Eylül ayında Amazon, Facebook, Google, IBM ve Microsoft, İnsan ve Topluma Fayda Sağlamak için Yapay Zeka Ortaklığı kurdu. Kurulan ortaklık, AI’nın etik, adil ve kapsayıcı yollarla konuşlandırılmasına odaklanıyor. Ocak ayında Apple da aralarına katıldı ve o zamandan beri pek çok teknoloji şirketi daha ortaklığa dahil oldu.

Bu arada, sosyal yardım organizasyonu olan Geleceğin Yaşam Enstitüsü (FLI), AI’nın insanlığın geleceğine faydalı olmasını sağlamak için robotik tasarımlara özel temel yasalar ve etik kurallar içeren Asilomar AI İlkeleri‘ni oluşturdu. DeepMind ve MIT’den uzmanlar tarafından kurulan FLI’ın Bilimsel Danışma Kurulu, Stephen Hawking, Frank Wilczek, Elon Musk, Nick Boström ve hatta Morgan Freeman gibi isimlerden oluşuyor.

Bu demek oluyor ki ; şayet endüstrideki en keskin zekaların sıkı çalışmalarının ürünü olan proaktif düşünce, AI ile ilgili yaşanabilecek sorunlara karşı en iyi savunma mekanizmasıysa hiç fena durumda sayılmayız.

Kaynak: Futurism

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.

2017’de Kepenk Kapatan Yüksek Sermayeli Girişimler

Jim Carrey’nin Sanat Belgeseli Rekora Koşuyor