Özel Haber: Sümeyye Aksu
Yapay zekâ sektörü her geçen gün daha da büyüyerek, insanların hayatını kolaylaştırıyor. Sağlıktan savunmaya pek çok sektörde verimi artırıyor. Genellikle yapay zekâ sistemleri sadece insan seviyesinde performansa ulaşmıyor, aynı zamanda onu önemli ölçüde aşıyor. İnsan tarafından çok hızlı olarak verilemeyecek kararlar, yapay zekâ tarafından son derece hızlı bir şekilde verilebiliyor. Yine insan tarafından kolayca çözülmesi zor olan karmaşık mantık süreçleri içeren problemler de yapay zekâ algoritmaları sayesinde son derece kısa sürede çözümlenebiliyor. Ancak yapay zekâ kullanımı birçok riski de barındırabiliyor.
Savaşlarda yapay zeka mı yer alacak?
Ülkeler arası rekabetin de etkisiyle yapay zekânın orduda kullanımı gittikçe güçleniyor. Bugün ABD, Güney Kore, Rusya, İsrail ve Avusturya gibi dünyanın ileri gelen ülkeleri, ordularının saldırı ve savunma sistemlerine yapay zekâyı entegre etmek, yani savaş sürecini makineleştirmek için ciddi çalışmalar yapıyor. Tam otonom drone’lar havalanıp, hedefi vurup, üsse geri gelebiliyor. Hedeflediği insanın yüzünü tanıyabilen tüfekler için çalışmalar sürerken; insanlar, ‘insansız’ savaşların ne kadar gelecekte olduğunu merak ediyor. Dolayısıyla pek çok kararın makineler tarafından alınacağı, yapay zekâ ile geliştirilen geleceğin savaş teknolojisinin yeterli olgunluğa erişmesini takiben bu tip insani müdahaleler tarihe karışabilir. Tüm bu gelişmelere rağmen lider ülkelerin vazgeçemediği yapay zeka teknolojilerinin getireceği değişiklikler neler olacak? Bu değişiklikler tehlikeli olabilir mi? Yapay Zeka Politikaları Derneği Genel sekreteri İrem Sezer, Elips Haber’e anlattı.
“Büyük ölçüde kontrol edilebilir veya azaltılabilir”
“Yapay zekâ, bilgisayarlar veya makineler tarafından insan benzeri zekâ görevlerini yerine getirme yeteneği olarak tanımlanır” diyen Sezer, “Yapay zekâ, öğrenme, problem çözme, dil işleme ve veri analizi gibi karmaşık görevleri otomatik olarak gerçekleştirme kapasitesine sahiptir. Yapay zekâ, potansiyel olarak tehlikeli olabilir, ancak bu tehlikeler büyük ölçüde kontrol edilebilir veya azaltılabilir. Yapay zekâ ve otomasyon, özellikle rutin, tekrarlayan ve verilere dayalı görevleri içeren işleri etkileyebilir.
“Yapay zeka yeni iş fırsatları yaratabilir”
Yeni teknolojilerin geliştirilmesi ve yönetilmesi için insan uzmanlara olan ihtiyacın devam edeceğini vurgulayan Sezer, “Örnek olarak üretim ve imalat konularında otomasyon noktasında çalışan işçi sayısı azalabilir. Muhasebe ve Finans kısmında Finansala analiz ve raporlama gibi görevler otomatikleşebilir. Müşteri Hizmetleri kısmında ise yapay zekâ tabanlı chatbotlar, müşteri hizmetleri temsilcilerinin rolünü azaltabilir. Ancak unutulmaması gereken bir nokta, yapay zekânın yeni iş fırsatları da yaratabileceğidir” diye konuştu.
“Yapay zekanın tehlikeli olabileceği düşüncesine yol açabilir”
Yapay zekanın, kötü niyetli aktörler tarafından kötü amaçlar için kullanılabileceğine dikkat çeken Sezer, “Örneğin, siber saldırılar, sahtecilik, dolandırıcılık ve diğer suçlar için yapay zekâ kullanımı artabilir. Bu, kişisel veri hırsızlığı, siber casusluk, bilgisayar virüslerinin geliştirilmesi gibi tehlikeleri artırabilir. Yine buna bağlı olarak yapay zekâ, büyük miktarlarda kişisel veriyi işleyebilir. Veri gizliliği ihlalleri, kişisel ve hassas bilgilerin kötüye kullanılmasına yol açabilir. Bu gibi durumlar yapay zekânın tehlikeli olabileceği düşüncesine yol açabilir” ifadelerini kullandı.
“Yasal düzenlemenin 2024 yılından itibaren yürürlüğe girmesi bekleniyor”
“Yapay zeka alanının hızla geliştiğini ve yeni yasal düzenlemelerin sık sık yapıldığını söyleyebiliriz” diyen Sezer sözlerini şöyle sürdürdü;
“Örneğin Almanya, Fransa, Amerika gibi ülkeler yapay zekâ ile ilgili etik ilkeleri anayasasına eklemeyi tartışan ülkelerden birkaçıdır. Yapay zekâ kullanımının insan haklarına ve temel özgürlüklere uygun olması gerektiğini belirtmektedirler. Gündemde olan yeni bir gelişme ise “Yapay Zekâ Yasası” olarak nitelendirilen ve özellikle ChatGPT, Bard ve Midjourney gibi araçları doğrudan etkileyen kural ve düzenlemeler içeren yasadır. Bu yasa Avrupa Parlamentosu tarafından 14 Haziran 2023 tarihinde gerçekleşen oylamada oyçokluğuyla kabul edilmiştir. Bu aşamayı takiben Avrupa Birliği Bakanlar Konseyi, Avrupa Komisyonu ve Avrupa Parlamentosu arasındaki müzakereler devam edecek olup ve müzakerelerin 2023 yılının sonlarına doğru sonuçlandırılması öngörülmektedir. Yasal düzenlemenin 2024 yılından itibaren yürürlüğe girmesi beklenmektedir”
“Türkiye Ulusal Yapay Zekâ Stratejisini yürürlüğe koydu”
Türkiye’de şu an için yapay zeka ile ilgili herhangi bir yasanın olmadığını dile getiren Sezer, “Fakat Türkiye’nin bu alanda attığı en önemli adım 2021 yılında diğer Avrupa ülkeleri gibi Ulusal Yapay Zekâ Stratejisini yürürlüğe koymasıdır. Bu bağlamda UYZS ile 2021-2025 yılları arasında Türkiye’de yürütülen yapay zekâ alanındaki çalışmaları ortak bir zemine oturtacak tedbirler ve bu tedbirleri hayata geçirmek üzere oluşturulacak yönetişim mekanizması değerlendirilecektir” değerlendirmesinde bulundu.
“Yapay zeka ve nükleer savaş önemli tehditler barındırıyor”
Yapay zekâ ve nükleer savaşın, farklı türde riskleri temsil ettiğini ve bu nedenle doğası gereği karşılaştırılabilir olmadığını savunan Sezer sözlerine şöyle devam etti;
“Her ikisi de önemli tehditler taşır, ancak farklı açılardan ve farklı sonuçlarla ilişkilendirilirler. İki risk türü arasında farklılar bulunmaktadır. Nükleer savaş, fiziksel dünyada kullanılan nükleer silahlarla ilgilidir. Yapay zekâ ise bir bilgi işleme teknolojisidir. Yapay zekâ, kötü niyetli kullanım, veri gizliliği ihlalleri, otomasyonla iş kaybı, etik sorunlar ve önyargılı algoritmalar gibi riskler taşır. Bu riskler, insan toplumlarına uzun vadeli zararlar verebilir. Nükleer savaşın riski, büyük ölçekli ölüm ve yıkıma yol açabilen anında sonuçlara yol açabilir. Bu nedenle nükleer savaş, insanlık için son derece yıkıcı bir tehdittir. Yapay zekâ ile ilgili olarak, bu teknolojinin güvenli ve etik bir şekilde kullanılması için düzenlemeler ve denetimler gereklidir. Yapay zekâ ile ilgili riskler üzerine araştırmalar ve etik ilkeler geliştirmek, potansiyel tehlikeleri azaltmaya yardımcı olabilir. Ancak nükleer savaş, doğası gereği büyük bir yıkım potansiyeline sahiptir ve bu nedenle çok farklı bir tür tehdittir. Her iki risk türü de dikkat ve çaba gerektirir, ancak doğaları ve sonuçları bakımından farklıdır”
“Uluslararası ilişkilerde denge ve diplomasinin önemi büyüktür”
“Yapay zekâ, kötü amaçlı kullanımı ve güvenlik risklerini beraberinde getirebilir, ancak nükleer kodları çalabilecek, salgın hastalıklar yaratabilecek ve dünya savaşlarını tetikleyebilecek senaryoların gerçekleşmesi için bir dizi koşul ve kontrollerin atlatılması gerekir” ifadelerini kullanan Sezer sözlerine şöyle devam etti;
“Birkaç senaryo üzerinde tartışacak olursak; Yapay zekâ, siber saldırılar yoluyla hassas verilere erişebilir ve nükleer kodları ele geçirebilir. Ancak nükleer kodlar genellikle son derece güvenli ve korumalı bir şekilde saklanır ve erişimleri sıkı bir şekilde kontrol edilir. Bu tür bir saldırı gerçekleşmesi son derece zor ve karmaşık olacaktır. Yapay zekâ, biyolojik araştırmalarda ve genetik mühendislikte kullanılabilir. Ancak bir salgın hastalık yaratmak için sadece yapay zekâ yeterli değildir. Bu tür bir eylemin gerçekleşmesi, laboratuvarlarda ve tıp alanında çok sayıda güvenlik önlemi ve denetim gerektirir. Yapay zekâ, askeri sistemlerde ve siber güvenlik alanında kullanıldığında dünya savaşlarını tetikleme potansiyeli taşıyabilir. Ancak bu, siyasi, etik ve hukuki faktörlerin bir sonucu olacaktır. Dünya savaşlarının tetiklenmesi çok ciddi sonuçlara yol açar, bu nedenle uluslararası ilişkilerde denge ve diplomasinin önemi büyüktür”
“Teknolojinin kendisi değil, teknolojiyi kullanan insanların niyetleri belirleyici”
İnsanlık için gerçek bir tehlike oluşturabilecek potansiyel risklerin olabileceğine dikkat çeken Sezer, “Bu nedenle etik ilkeler, yasal düzenlemeler ve uluslararası iş birliği, yapay zekâ teknolojisinin güvenli ve sorumlu bir şekilde geliştirilmesi ve kullanılması için kritik öneme sahiptir. Birçok ülke ve uluslararası kuruluş, bu tür sorunları ele almak ve yapay zekâ teknolojisinin güvenliğini sağlamak amacıyla çalışmaktadır. Unutulmaması gereken önemli bir nokta, teknolojinin kendisinin değil, teknolojiyi kullanan insanların niyetlerinin ve kararlarının asıl belirleyici olduğudur. Bu nedenle yapay zekâ geliştiricileri, araştırmacıları ve hükümetler, teknolojiyi etik ve toplumsal fayda odaklı bir şekilde kullanmak için çaba göstermelidir” diye konuştu.
“Türkiye, dünya genelinde yakından izlenmektedir”
“Türkiye yapay zekâya dair en önemli adımını Ulusal Yapay Zekâ Stratejisini yürürlüğe koyması ile atmıştır” şeklinde konuşan Sezer sözlerini şöyle tamamladı;
“Bununla beraber şu an Türkiye üniversiteler, kamu kurumları ve özel sektör arasında iş birliğini teşvik eden ve yapay zekâ alanındaki araştırma ve geliştirme faaliyetlerini finanse eden projelere yatırım yapmaktadır. Ülke genelinde yapay zekâ merkezleri ve İnovasyon Hub'ları açılmasına destek sağlayarak yapay zekâ konusundaki çalışmaları desteklemekte ve iş birliği fırsatları sunmaktadır. Türkiye'nin Yapay zekâ alanındaki gelişmeleri dünya genelinde yakından izlenmektedir ve Türkiye bu teknolojinin hızlı bir şekilde evrilen doğasının bilincinde olarak yeni politika ve düzenlemeler geliştirmeye devam etmektedir”