Uluslararası otoriteler, yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit veya tehlike potansiyelinin de göz ardı edilmemesi gerektiğini konusunda hemfikir. Yapay zekânın son birkaç yılda gösterdiği olağanüstü gelişim ve kullanıldığı alanlardaki sonuçlara dikkat çeken Dr. Öğr. Üyesi Nuri Bingöl, yapay zekâ teknolojisindeki gelişimin bazı düzenleme ve denetimlere tabi olması gerektiğini söylüyor. Fikir ayrılıklarının ‘bu denetimin nasıl ve kimler tarafından uygulanacağı’ konusunda olduğunu belirten Bingöl, bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğine vurgu yapıyor.
Üsküdar Üniversitesi Yapay Zekâ Mühendisliği Yüksek Lisans Programı Anabilim Dalı Başkanı Dr. Öğr. Üyesi Nuri Bingöl, hızla gelişen yapay zekâ teknolojilerinin ulusal ve küresel anlamda nasıl denetlenmesi, ne tür sınırların getirilmesi gerektiği ve tüm bunların önünde ne gibi engeller olduğuna dair açıklamalarda bulundu.
Bilgi birikimini, yapay zekânın faydasını maksimize edecek şekilde kullanmanın tam zamanı
Yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit veya tehlike potansiyelinin de göz ardı edilmemesinin önemli olduğunu belirten Dr. Öğr. Üyesi Nuri Bingöl, “İnsanlık bu konuda tecrübeli ve bu tecrübeyi hızlıca pratiklere çevirmeli. Daha önceki devrimsel teknolojik gelişmelerin yol açtığı olumlu veya olumsuz sonuçlardan çok şey öğrendik. Bu bilgi birikimini, yapay zekânın faydasını maksimize edecek şekilde kullanmanın tam zamanıdır.” dedi.
Yapay zekâ üzerindeki denetimin nasıl uygulanacağı konusunda fikir ayrılıkları var
Düşünceleri ile bugünün toplumlarına yön veren birçok otorite ve hatta yapay zekânın gelişmesinde önemli rol oynayan insanların dahi, benzer düşünceleri paylaştıklarını ifade eden Bingöl, “Yapay zekânın son birkaç yılda gösterdiği olağanüstü gelişim ve kullanıldığı alanlardaki sonuçlar gösteriyor ki, yapay zekâ teknolojisindeki gelişim, bazı düzenleme ve denetimlere tabi olmalı. Fikir ayrılıkları bu konuda değil, ‘bu denetimin nasıl uygulanacağı’ üzerinedir.” şeklinde konuştu.
Hangi aşamasının denetleneceğine göre tedbirler değişiyor
Tartışmaların ve fikir ayrılıklarının, denetimin nasıl uygulanacağı noktasında yoğunlaşmasının sebeplerine de değinen Bingöl, bu sebepleri şöyle açıkladı:
“Yapay zekâ teknolojileri müthiş bir güçtür ve bu gücün sadece bir kurumun elinde toplanmasının getireceği sorunlar var. Bu teknolojiler doğası gereği iki aşamalı bir üründür. İlki yapay zekânın kapasitesinin geliştirilmesi, ikincisi de belirli bir amaç için kullanılması. Bu iki aşamadan hangisi denetime tabi tutulmalı veya sınırlandırılmalı? Hangi aşaması daha fazla potansiyel tehdit veya tehlike içeriyor? Doğal olarak bu sorunun yanıtına göre alınabilecek tedbirler de değişiyor. ‘Nasıl uygulanacağı’ sorusu farklı bir anlam kazanıyor.”
Teknoloji üzerinde aşırı bir denetim ve sınırlandırma, faydalarının azalmasına yol açar
Yapay zekânın denetim ve sınırlandırmasının hangi düzeyde olacağı konusuna da dikkat çeken Bingöl, “Unutmamak gerekir ki teknoloji üzerinde aşırı bir denetim ve sınırlandırma, o teknolojinin gelişmesinden doğan faydaların da azalmasına yol açar. Oysa insanlığın önünde büyük varoluşsal problemler var ve yapay zekâ teknolojileri bu konularda büyük potansiyel taşıyor.” dedi.
Bingöl, yapay zekâ konusunun önemli isimlerinden Andrew Ng’nin, ‘İnsanlığın büyük bir kısmı için varoluşsal riskleri düşündüğümde: Bir sonraki salgın, iklim değişikliği ve sonucunda kitlesel nüfus azalması, başka bir asteroit tehlikesi… Yapay zekâ, çözümlerimizin önemli bir parçası olacak. Dolayısıyla, insanlığın önündeki bin yıl boyunca hayatta kalmasını ve gelişmesini istiyorsak, yapay zekânın daha hızlı çalışmasını sağlayalım, daha yavaş değil.’ şeklindeki paylaşımının dikkat çekici olduğunu da sözlerine ekledi.
Denetim ve sınırlandırmalar etik boyutu da kapsamalı
Yapay zekânın denetim ve sınırlandırmalarının, sadece tehdit ve tehlike boyutu üzerinde etkili olmaması gerektiğini belirten Bingöl, “Bunlar kadar önemli ‘etik’ boyutu da var. Çok küçük kapasiteli yapay zekâ ürünleriyle bile, bazı kişisel ihlal ve tehditler yaratabilir. Özellikle bir kişi, kurum veya bir insan topluluğu hedef olarak alınabilir. Dolayısı ile denetim ve sınırlandırma ihtiyacını sadece çok büyük kapasiteli yapay zekâ teknolojisi üreten veya kullanan taraflar olarak düşünmemek gerekiyor. Denetim ve sınırlandırmalar hem büyük boyutlu hem de yerine göre küçük boyutlu yapay zekâ kapasitesi için geçerli olabilmeli.” şeklinde konuştu.
Kişisel veri güvenliği ve etik konusu için atılan adımlar, denetim ve sınırlandırmalar üzerine bir temel oluşturabilir
Denetim ve sınırlandırmaların nasıl uygulanacağı konusunun standartlaşması ve yönetmeliklerinin oluşmasının zaman alacak gibi göründüğünü ifade eden Bingöl, “Bu alanda tartışma ve fikirler gelişmeye devam ederken, Avrupa Birliği Genel Veri Koruma Tüzüğü veya ülkemizde uygulanan haliyle Kişisel Verilerin Korunması Kanunu gibi geçmiş tecrübelerin içine, yapay zekâ ile ilgili bazı pratik yönetmelikleri ve düzenlemeleri bugünden koymak ve bir yönetsel çerçeve oluşturmak önemli. Çünkü kişisel veri güvenliği ve etik konusu için atılan adımlar, yapay zekânın denetim ve sınırlandırmaları üzerine bir fikir ve pratik temeli oluşturabilir. Verinin hangi kaynaktan ne büyüklükte ve ne amaçla kullanıldığı, nasıl korunduğu ve paylaşıldığı üzerine inşa edilmiş bu mevzuatlar yapay zekânın kapasite geliştirme aşaması için önemli bir unsurdur ve en azından bu açıdan bir kontrol temeli oluşturabilir.” şeklinde konuştu.
‘Bilişim Hukuku’ unsurlarının dikkatini bu konuya çekmeliyiz
Diğer bir unsurun ise bilgi işlem gücü ve enerji tüketiminin yönetilmesi olduğunu aktaran Bingöl, “Bu alandaki denetim ve sınırlandırmalar ‘Blok Zincir (Blockchain)’ teknolojisinin oluşturduğu bazı sıkıntılara çözüm olabilmiş ve teknolojinin daha pozitif tarafa yönelmesine katkı sağlamıştır. Benzer mevzuatlar, dolaylı olarak yapay zekâ teknolojisinin üzerinde de etkili olabilir.” dedi.
Öncelikle yapay zekâ tarafından üretilen sahte içeriklerin tespit edilmesi ve yaptırımların neler olması gerektiğinin kararlaştırılması gerektiğine dikkat çeken Bingöl, “Yalnızca sahte bilgi barındıran değil, doğru bilgi barındıran ama bunu bir grubu manipüle etmek veya bir gruba çıkar devşirmek için yapay zekâ tarafından oluşturulan içeriklerin de önüne geçilmeli. Toplanan kullanıcı verileri sayesinde bireyleri hedefleyen yapay zekâ tarafından oluşturulmuş her türlü siyasi ve ticari kampanya sınırlandırılmalı ki özgür irade özgür kalmaya devam etsin. Vakit kaybetmeden yapay zekâ odaklı bakış açısı ile ‘Veriye Erişim ve Bilgi İşlem Gücünün Kullanımı’ kavramlarının, mevcut yasa ve yönetmelikler ile ilişkisini kurmaya başlamalıyız. Özellikle ‘Bilişim Hukuku’ unsurlarının dikkatini bu konuya çekmeliyiz.” şeklinde konuştu.
Merkezi bir bağlantı ve denetim oluşturmak neredeyse imkânsız
İnsanların kolayca ulaşabileceği ve ulaştığında hem kendi hem de başkalarının hayatlarına etki edebileceği bir teknolojinin denetlenmesi gerektiğine vurgu yapan Dr. Öğr. Üyesi Nuri Bingöl, “Ancak yalnızca bir bilgisayar ve biraz matematik bilgisi ile oluşturulabilen yapay zekâ modellerinin tamamı üzerinde bir denetim mekanizması kurulması pek de mümkün gözükmüyor.” dedi.
Yapay zekâ teknolojisinin bir denetim ve sınırlandırmaya tabi olmasının, kaçınılmaz olarak bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğini belirten Bingöl, sözlerini şöyle tamamladı:
“Hatta günümüz teknolojileri merkeziyetsiz alt yapılar üzerine odaklanıyor ve bu alanda birçok gelişme yaşanıyor. Kaldı ki yapay zekâ teknolojilerinin bir defa üretildikten sonra, herhangi bir merkeze hatta internete bağlı olmadan gömülü sistemler olarak çalışabilmesi, en azından kullanım aşaması için bir özgürlük sağlıyor. Bu kabiliyete sahip yapay zekâ sistemleri için, günümüzde her alanda görüldüğünden, merkezi bir bağlantı ve denetim oluşturmak neredeyse imkânsız.”
Kaynak: (BYZHA) Beyaz Haber Ajansı
Yorum Yazın