İçerik Üretiminde Yapay Zekayla İşbirliği Yapabilir Misin?-Data Science Journey 4#

Sevval Hatice ÖTER
6 min readDec 11, 2022

Bu hafta sizleri hazır Miuul ‘daki Veri Bilimi Bootcamp’imin en sevdiğim kısmı olan Makine Öğrenmesi Modülüne gelmişken Yapay Zeka’ nın tarihini Yapay Zeka ile anlatmak için bilgisayar başına geçtim.

2019 ‘daki üniversiteye ilk başlayıp Beyin Bilimi ve Yapay Zeka dersini ilk alan halim algoritmanın ve Sinir Ağlarının evrilip böyle bir çıktıyı bu kadar kısa sürede verebileceğini aklına getiremezdi .Gelecekten gelen biri bunun gerçekleşeceğini o zamanki halime söylese büyük ihtimalle kendisi adına mezuniyet sonrası işsizlikten korkardı.

Bu yazım #chatgpt ile işbirliği içinde yazılmıştır.2019 ‘da ilk defa T-İnsan’ı okuduğumda İnsan-Algoritma işbirliklerinin farkına varmıştım ve o zaman bu teknolojilerin gelişmesi sonucu geleceğimize dair kaygılardansa, geleceğin tahmin edilmediği tasarlandığını kabul etmem gerektiğinin farkına varmıştım.Dolayısıyla bunun birebir örneğini anlık olarak deneyimlerken parmaklarımdan ekranlarınıza dökülecek yazıyı mercek altına alalım.

1. Teknoloji nedir?

Makineler insanların tarihi boyunca günlük hayatlarını kolaylaştırmak yani otomasyon yaratmak için teknolojik çıktıları bizlere sağlarlar .Burada Kadir Köymen’in teknolojinin tanımıyla ilgili sözü benim bakış açımı değiştirmişti.

  • Videoyu izlemeniz için yeterli zamanınız yoksa özetle:

“Teknoloji daha az girdiyle daha çok çıktı almamızı sağlayan ve tekrar tekrar kullanılabildiğin her şeydir.Üretilen içerikler,akış diyagramları, kararlar(yapılacak yol ve yöntemler ) teknolojidir.Döküman çalışır, değer üretir, kağıt üstüne koyduğun fikrin değer üretir.”

Mesela burada videoyu özetlemem bile bir teknoloji olarak düşünebilir.

2. Yapay Zekanın Tarih Çizelgesinden Uzak Tarihçesi

Not: Burada tarihi sıralamaya göre tüm gelişmeleri vermemin imkansız ve bilgi işlemenin bilgisayarların yapması gereken bir işlev olduğunu düşündüğümden (bkz.ChatGPT) olaylara insan çıkarımı ve bilginin yorumlanması penceresinden bakmayı tercih ettiğimden bilgiler kısa kısa yer almıştır.(Daha fazla salt bilgi için ChatGPT ile yanlılıktan uzak chatleşmenizi öneririm,lütfen kötücül insan faktörleri ile beslemeyin.😍)

Yapay Zeka Alanı; zekanın doğası ve yapay varlıklar yaratma olasılığı hakkında felsefi fikirler geliştiren eski Yunanlılara kadar uzanan bir tarihe sahiptir.Olası simülasyon algoritmalarının ve Matematiksel modellerin çıkması da 1950 ve 1960 yıllarına kadar uzanır.Bu yıllarda araştırmalar ,akıllı davranışı simüle edebilecek algoritmalar ve matematiksel modeller geliştirmeye odaklandılar. Thomas Hobbs ve Rene Descartes, tüm rasyonel düşüncenin basit bir cebir olarak sistematikleştirilebileceği olasılığını araştırdılar.

Basit hesaplama makineleri yüzyıllardır var olsa da, Charles Babbage ve Ada Lovelace ‘ın gerçekten programlanabilir bir bilgisayar tasarlamaları 19. yüzyılın başlarına doğru mümkün olmuştur.

Bu teorik gözlemleri Analitik Makina olarak adlandırıldı ve hiçbir zaman inşa edilmemesine rağmen, Bilgisayar Biliminin gelişiminde dikkate değer bir dönüm noktası olmaya devam ediyor.

Modern hesaplamanın teorik temelleri, George Boole’un 1854'te Boole Cebirini icat etmesiyle istikrarlı bir şekilde ilerledi. 1913. Yüzyılın ilk yarısı, Yapay Zeka Robotlarını betimleyen bir Bilimkurgu patlamasına yol açtı.

İngiliz Matematikçi Alan Turing 1950’de şu soruya yola çıktı :

“ İnsanlar, sorunları çözmek ve kararlar almak için mevcut bilgileri ve akıllarını kullanır, Neden Makinalar da aynı şeyi yapamasın? ”

Savaştan sonra Turing Yapay Zeka çalışmalarını devam ettirebilmek için önünde iki sorun vardı :

  1. Bilgisayarlar sadece kodu çalıştırır döngüsel yapılar için çıktıyı elinde tutmakta o kadar gelişmiş değiller
  2. Çok pahalılar dolayısıyla araştırmalarımı finanse etmek için ne yapabilirim? (NPL)

MIND makalesi özellikle Taklit Oyununda Turing, bir bilgisayarın insanın duyarlı davranışını taklit edip edemeyeceğini sordu, bu bilgisayarın kendisinin duyarlı olduğu anlamına gelmez. İnsan testçisi insan ve bilgisayar etkileşimleri arasındaki farkı anlayamazsa, o zaman bilgisayar testi geçecekti ve bilgisayarların insan seviyesinde zekaya sahip olduğunu kabul etmemiz gerekecekti, bir makinenin bunu geçebileceği Turing testini yapmak kolay olmayacaktı. Bilgisayarın Doğal Dili işlemesi gerekecekti ve öğrenebilmek için bir konuşmadan ve söylenenleri hatırladıktan(o zamanda bilgisayarlar çıktı verebilir ama çıktıyı hatırlayıp tekrar kullanma konusunda o kadar yetkin değildiler.) sonra fikirleri insanlara geri iletmesi ve sağduyuyu anlaması gerekir.

Aynı yıl Isaac Asimov 3 robot kanunu yayınladı:

Birinci Kanun: Bir robot asla bir insanı yaralayamaz veya hareketsiz kalarak bir insanın zarar görmesine izin veremez.

İkinci Kanun: Robotlar insanlar tarafından verilen emirlere uymak ve birinci kanunla çelişecek aktiviteleri yapmamak zorundalar.

Üçüncü Kanun: Bir robot, ilk iki yasayla çelişmediği sürece kendi varlığını korumalıdır.

1956 Dartmouth Konferansı,Yapay Zekanın doğum yeri olarak kabul edilir. Konferans, Yapay Zekanın kurucularından biri olarak kabul edilen Bilgisayar Bilimcisi ve Matematikçi John McCarthy tarafından düzenlendi. Akıllı makineler yaratma olasılığını tartışmak için bilgisayar bilimi, psikoloji ve felsefe dahil olmak üzere çeşitli alanlardan bir grup araştırmacıyı bir araya getirdi.Konferans, Yapay Zeka tarihinde “Yapay Zeka” teriminin makinelerdeki akıllı davranış çalışmasına atıfta bulunmak kullanıldığına ilk defa işaret ettiğinden önemlidir. Modern Yapay Zeka araştırmaları alanının başlangıç noktası olarak belirtilir.Yapay Zekanın spesifik problemleri için hangi algoritmayı uygulayabileceğimiz konusunda yardımcı oldu.

Yapay Zeka araştırmaları büyük finansman gerektirdiğinden dolayı ya Üniversiteler bünyesinde araştırma merkezlerinde ya da devlet bünyesinde yapıldığından 1980 ve 1990 dönemlerinde finansman yetersizliğinden ve erken dönem Yapay Zeka sistemlerinin birçoğunun vaatlerini yerine getiremediği bir “kış” yaşadı.

Kışı bitiren algoritma ise “Uzman Sistemler “ in gelişmesi oldu.Uzman sistemler kısaca belirli bir alandaki bir uzmanın karar verme yeteneklerini taklit eden bilgisayar programlarıdır. Belirli bir alandaki insan uzmanların bilgi ve uzmanlıklarını yakalamak ve bu bilgileri sorunları çözmek ve kararlar almak için kullanmak üzere tasarlanmıştır.

Uzman sistemler tipik olarak iki ana bileşenden oluşur:

1.Bilgi Tabanı: Uzman sistemin karar vermek için kullandığı gerçekleri ve kuralları içerir ve genellikle alan hakkında derin bir anlayışa sahip bir insan uzman tarafından oluşturulur.

2.Çıkarım motoru: Sorunları çözmek ve karar vermek için bilgi tabanındaki bilgiyi kullanan uzman sistemin bir parçasıdır.

Uzman sistemler 1970–1980'lerde geliştirildi ve yaygın ticari başarı elde eden ilk yapay zeka teknolojilerinden biriydi. Tıbbi teşhis, finansal planlama ve petrol arama dahil olmak üzere çok çeşitli uygulamalarda kullanıldılar. Bu yeni teknolojilerin verilerden öğrenebilmesi ve zaman içinde performanslarını arttırmaları biyolojik nöronlardan etkilenen algoritmaların oluşabileceği sorusuna yol açtı.

İnsan beyninin yapısını ve işlevini taklit etmek için tasarlanmış algoritmalar olan Yapay Sinir Ağları ilk olarak 1943'te Warren McCulloch ve Walter Pitts tarafından önerildi. Bir nöronun matematiksel modelini tanımladıkları ve nöronların bir ağ oluşturmak için nasıl bağlanabileceğini gösterdikleri bir makale yayınladılar.

Şu an benim bu içeriği üretmeme yardım eden ChatGPT insan etkileşimiyle, model aldığı veri setinden insan faydasına çıktı üretmeyi sağlayan bir mesajlaşma hizmeti sağlayan bir yapay zeka ve kendisinin ilettiği bilgilere göre 2021 yılını kaynak alan bir veri setinden ilham alıyor.İnsanlar gözünü GPT3 ‘ün ürünlerine çevirmişken GPT4 ‘u kullanacağımız günü bekliyorum .Kim bilir belki de GPT4 ‘un araştırma ekibinde ben de yer alırım🤔.

ChatGPT ve OpenAI ‘ın diğer teknolojileri için podcastimi dinleyebilirsin.🎧

3.İnsansı Çıkarımlarım

Algoritmaların hızlı gelişmesini ve modellerin gelişiminde gözlemlediklerim:

1.Multidisplinerlik: Tüm bu gelişmelerde ilgilimi çeken nokta yeni gelen ve kaderi değiştiren algoritmaları bulan bilim insanlarının multidisipliner olarak soruna yaklaşması.Mesela Yapay Sinir Ağlarının çıkış noktası “Biyolojiden esinlenerek bu sistemi algoritmamıza pozitif bir etki olarak katabilir miyiz ?” sorusu algoritmanın çıkış noktası olmuş.

2.İyi Bir Ekiple Çalışma: Bu literatüre katkı sunan neredeyse hiçbir bilim insanı odasına kapanıp hiçbir kaynaktan ve kişiden ilham almadan bu keşiflere erişmemiştir.Teorik ve akademik bilginin birikimli olarak artmasında birbirleriyle bilgi alışverişinde bulunabilen ve karşısındakini belki anlamasa bile beraber çalışabilen takımlar yer almıştır.Takım çalışmasına yatkınlık uzun süredir üzerinde çalıştığım bir konu lakin artan çalışma sürem ve içe dönüklüğümün baskınlaşmasına paralel olarak bu yetkinliğimde kendimi geliştirmek için daha çok çaba sarf ediyorum🙃.

3.Değişik Sorular Sorma: Turing ‘in “ Makineler Düşünebilir mi?” sorusu ile başlayan bu soru silsilesinde beni en çok etkileyen soru sevgili Refik Anadol ‘un “ Binalar Düşünebilir ve Rüya Görebilir mi?” sorusu oldu.Umarım ben de bir gün ilginç sorularıma cevaplar bulurum.

Sonuna kadar okuyup değerli vaktini ayırmaya değer bulduğun için çok teşekkür ederim sevgili okurum🥹

--

--

Sevval Hatice ÖTER

YTÜ Matematik | YET-GEN 2021–1 Trainee && 2021–3 LİDER| |https://linktr.ee/sevvalhaticeoter