Mar 032017
 
1.878 views

Singularity – Tekillik Günleri Hızla Yaklaşıyor

Önce singularity kavramının anlamını netleştirelim.
Wikipedia, singularity (teknolojik tekillik) kavramını şu şekilde tanımlıyor: “gelecekte yapay zakanın ötesine geçerek, medeniyeti ve insan doğasını radikal bir biçimde değiştireceğine inanılan hipotezsel nokta. Böyle bir zeka, insanlığın tasavvur edebileceğinden daha üstün kabiliyetli olacağından, insanlığın geleceğini öngörülemez bir hale getireceği düşünülmektedir.”

Kurzweil, bu kavramı şu sözlerle daha da somutlaştırıyor: “İnsanlığın önünde iki seçenek var. Dünyaya geldiğimiz beden ve teknoloji sayesinde kavuştuğumuz beden. İnsan iskeletindeki kemiklerin malzemesi iyi değil. Çelik çok daha iyi. Çok etkin işleyen mekanik hücreler yakın gelecekte doğal hücrelerin yerini alacak. Bedene yerleştirilen yapay kol, bacak gibi organlar doğal uzuvlardan daha güçlü ve dayanıklı.”

Asıl kritik nokta, yapay zekanın yaptıklarının, insanoğlunun zekası tarafından anlaşılamayacak kadar gelişmesiyle ortaya çıkacak. Böyle bir durumda, yapay zeka tarafından yaratılacak olası olumsuz etkilere karşı -ne olup bittiğini anlayamayacağımız için- önlem alamaz duruma geleceğiz. Türümüze en yakın primatlardan şempanzeler için bile bizim konuşmalarımız, yazdıklarımız, teknolojik uygulamalarımız neyse, singularity aşamasına ulaşmış yapay zekanın iletişimi ve yaptıkları da bizler için benzer konumda olacaktır.

Konu, her ne kadar bir bilimkurgu teması gibi görünse de, yapay zekanın gelişme hızı artık bu düzeye ulaşmanın çok uzakta olmadığını gösteriyor.

Neanderthal insanın, homo sapiens tarafından ortadan kaldırılması gibi; yapay zeka ile donanmış robot veya insanımsı varlıklar karşısında “doğal” insanoğlu da büyük bir olasılıkla tarih sahnesinden silinecektir. Bu gelişmeler bir “hızlandırılmış evrim” mekanizmasına bağlı olabilir. Her ne kadar teknolojiyi kullanıyor olsak da, kolayca kontrol edemeyeceğimiz sayıdaki parametre yüzünden biyolojik yaşamımıza yaptığımız müdahalelerin pek çoğu bir mühendislik ürünü olmaktan çok “rasgele” deneme-yanılmalardan ibaret kalıyor. Günümüzün süper bilgisayarları bile hala yeterince hızlı değil. Kuantum bilgisayarlar bile ikili hesaplama sistemlerine kıyasla aşırı bir gelişme sağlayamayabilir. Şu anda öngöremediğimiz yeni teknolojiler devreye girmedikçe, teknolojimizin “tekillik” düzeyine ulaşacak yapay zekayı yaratmada yetersiz kalması mümkün.

Günümüz şartlarında asıl yapmamız gereken, teknolojik gelişmelerin doğal yaşantımıza her geçen gün daha fazla karıştığının bilincinde ve farkında olmak. Bu farkındalığı bilerek kendi lehine kullanabilenler kendilerine yepyeni bir dünya yaratırlarken, geride kalanlar kaynakları hızla tükenen ve doğal ortamları hızla kirlenen bir yaşamı paylaşmak zorunda kalacaklar.

Singularity - Tekillik Günleri Hızla Yaklaşıyor

Kaynak: content.time.com

content.time.com sitesinde yayınlanan yukarıdaki grafik 1900-2045 yılları arasındaki teknolojik gelişimi özetliyor. Geçmiş yıllara ilişkin gelişmeleri gündelik hayatımızda da yaşıyoruz. Geleceğe yönelik temel öngörülerin bazıları şöyle:

  • 2015: Bilgisayarlar fare beyin kapasitesini aştı: 10 Gigabyte (10^9)
  • 2023: Bilgisayarlar insan beyin kapasitesini aşıyor: 1 Petabyte (10^15)
  • 2045: Bilgisayarlar tüm insanların toplam beyin kapasitesini aşıyor: 100 Yottabyte (10^26)

Bu tarih, yani 2045, bazı görüşlere göre insanın “ölümsüzlüğün sırrına” eriştiği tarih olacak.

Ne dersiniz?

Ahmet Aksoy

Kaynaklar:

Şub 262017
 
1.872 views

Elon Musk doğru mu söylüyor?

Elon Musk doğru mu söylüyor?

The Sun yazarı Zoe Naumann’ın haberine göre teknoloji milyarderi Elon Musk, “Yapay Zeka yaşamı anlamsızlaştıracak” uyarısını yapıyormuş. Ne dersiniz?

Elon Musk doğru mu söylüyor?

Resim: nypost.com: Elon Musk

Şahsen bu görüşe katılmıyorum.

Bir zamanlar havadan ağır cisimler uçamaz diyen yetkililer; inekler sütten kesilecek diye otomobillerin yasaklanmasını isteyenler vardı.

Ne kadar korkutucu olursa olsun, insanoğlu teknolojiyi hep kendi konforu için kullanabilmeyi başarmıştır.

Bu kez durum değişir mi? Sanımıyorum. Çünkü insanoğlu bir yandan kendisini de değiştirmeye devam ediyor.

Musk’ın kaygılarında haklı olduğu yanlar var. Örneğin insanların çok büyük bir kesimi yakın gelecekte “işsiz” kalmaya aday. Çünkü onların yerini doldurmaya hazır ve maaş bile istemeyecek, uzun mesai saatlerine itiraz etmeyecek bir robot ordusu hızla geliyor.

Musk’ın ve diğer ultra-zenginlerin bu konudaki asıl endişesi, üretilen malları satın alması gereken “müşterilerin” kaybedilmesi riskiyle ilgilidir. Musk buna da bir çözüm öneriyor: küresel düzeydeki işsizlere “evrensel gelir” sağlanması. Böylece temel müşteri kitlesi kaybedilmemiş olacaktır.

Robotların insanları işsiz bırakmasının kerşılığı olarak Bill Gates de “üretici robotlar için çalıştıranlardan vergi alınmasını” öneriyor.

Yapay zekanın “yaşamı anlamsızlaştıracağı” öngörüsüne katılmamakla beraber, her iki öneriyi de destekliyorum. Böylece yaratılan zenginliklerin toplumsal olarak bölüşümü açısından küçük de olsa bir adım atılmış olur.

Elbette bu “evrensel gelir” düzeyinin bizim “asgari ücret” kadar komik düzeyde olmaması gerekiyor. Amaç müşteri kaybetmemek olacağı için bu konuda daha iyimser olduğumu da itiraf edeyim.

Ben gelecekten korkmuyorum. Siz de korkmayın!

Ahmet Aksoy

Kaynaklar:

Şub 252017
 
1.651 views

DeepCoder internetten topladığı kodlarla program yazıyor

DeepCoder internetten topladığı kodlarla program yazıyor

Microsoft ve Cambridge Üniversitesinin işbirliğiyle geliştirilen DeepCoder sistemi internetten ve diğer kaynaklardan derlediği kod parçalarını kullanarak kendisine verilen sorunu çözen yazılımlar üretebiliyor.

DeepCoder internetten topladığı kodlarla program yazıyor

Resim: winbuzzer.com

Aslında bir yapay zeka (AI) çalışması olan DeepCoder, kod parçalarının depolandığı veritabanını tarayarak yapacağı işe uygun bileşenleri buluyor ve uygun şekilde bir araya getiriyor.

Bu teknik, bir çok programcının çalışma biçimini de yansıtıyor. Yeni yazılan bir çok uygulamanın önemli bir kısmı daha önce geliştirilmiş olan çeşitli kütüphaneler ve yordamları kullanarak geliştiriliyor. Doğal olanı da bu. Aksi halde her çalışmada Amerikayı yeniden keşfeder gibi, daha önce binlerce kez yeniden yazılmış olan ve geliştirilerek sorunsuz hale getirilen hazır kodları kullanmak yerine, sıfırdan bir çaba içine girmek gerekirdi. Modern çağın modüler sistemleri, yazılım dünyasında da aynen geçerli.

DeepCoder ve benzer şekilde çalışan diğer sistemler, bir yazılımcının çalışmasını benzer şekilde yineliyor. Üstelik kullandığı yapay zeka teknikleri sayesinde sürekli yeni şeyler öğreniyor ve kendini geliştiriyor.

Buna rağmen, bu sistemi geliştiren programcılar, “geniş kapsamlı projelerin, küçük kod parçalarını birleştirerek elde edilemeyeceği” görüşünü savunuyorlar.

Yapay zeka ve robot bilimi alanında yaşanan gelişmeler, bir çok mesleği doğrudan etkilemeye başladı bile. Yazılımcılar da kendi rakiplerini geliştirmek için var güçleriyle çalışıyorlar.

Ahmet Aksoy

Kaynaklar:

Kas 172016
 
2.267 views

Python Gensim Kütüphanesiyle Türkçe Yazı Özetleme

Python beni hala her gün şaşırtmaya devam ediyor. Elini atmadığı, muhteşem çözümler üretmediği neredeyse hiç bir alan yok!

Dün, yeni çalışma alanlarımdan biri olarak belirlediğim “yazı özetleme” konusunda internet araştırmalarına başladım. Bir makalede, gensim kütüphanesi ile yapılan bir çalışma örnekleniyordu: https://rare-technologies.com/text-summarization-with-gensim/

Python Gensim Kütüphanesiyle Türkçe Yazı Özetlem

Rare Technologies

Örnekler İngilizce. Dolayısıyla, Türkçe gibi eklemlemeli bir dil için başarılı sonuçlar elde etme olanağı pek yok! Ama yine de bilgi sahibi olmak için test etmek iyi olacak.

Bu amaçla hemen Hürriyet Gazetesini açtım ve ilk bulduğum haberi seçtim: İstanbul’a kar ne zaman Yağacak?

Kodlar şöyle:

Bunlar da aldığım yanıtlar:

Yanıtlardaki uyarı mesajlarından gördüğünüz gibi şablon kütüphaneleri kurulu olmadığı için sözcük köklerini saptamanın mümkün olamayacağı belirtiliyor. Gerekli filtreler de yok.
(Belki, iyi ki yok! Çünkü o İngilizce filtreler belki de Türkçe ile ilgili sorunlar yaratacaktı.)

Alınan sonuçların başarılı olup olmadığına siz kendiniz karar verin! Ama özellikle ratio=0.25 olan özetlemeye dikkat edin!

Ahmet Aksoy

Kas 012016
 
4.091 views

OpenCV ve Python ile Grafik İşlem Örnekleri

OpenCV kütüphanesi, canlı grafik işlemler için gereken fonksiyonları kullanıma açıyor.

Ana siteden OpenCV2 veya OpenCV3 paketlerini yükleyebilirsiniz.

https://github.com/opencv/opencv adresinde ana sitenin bir çatalı yer alıyor. Tüm kodları ve örnekleri buradan da indirebilirsiniz.

OpenCV kütüphane fonksiyonları CUDA kullanabiliyor. Hemen hemen bütün sistemlerle uyumlu bu kütüphane, “samples” dizinlerine yerleştirilen örneklerle daha kolay anlaşılabilir hale getirilmiş.

“Coherence.py” python kodunu kullanarak elde ettiğim örneklerden biri şöyle:
coherence_01_01-11-2016

gabor_threads.py kodunu çalıştırarak elde ettiğim örneklerden birisi şu:
gabor_threads

Python dizinindeki örnekleri “python3 demo.py” komutuyla açılan menü sisteminden kolaylıkla aktive etmeniz mümkün.

facedetect.py programcığı, canlı bir şekilde insan yüzünü yakalama konusunda öğretici bir örnek.

Nesne tanıma konularıyla ilgileniyorsanız, bu kütüphaneyi mutlaka portföyünüze ekleyin.

Ahmet Aksoy

Referanslar:

Eki 012016
 
2.078 views

Gensim Vektörel Doküman Eğitimi

Tıpkı word2vec yöntemi gibi, gensim paketinin doc2vec metodunu da kullanabilirsiniz. Buradaki amaç sözcükler yerine dokümanlar arasındaki ilişkileri vektörel olarak belirleyip, gruplamaktır.

gensim word2vec

Resim: https://codesachin.wordpress.com


Bu alandaki çalışmalar word2vec’e kıyasla çok daha kısıtlı. Öyle sanıyorum ki, sonuçların word2vec kadar kolay anlaşılır ve çarpıcı olmaması, bu durumun belirleyici unsurlarından biri.

Dün bir doc2vec çalışması yaptım. Veri olarak “gundem-nz.txt” dosyasını kullandım. Bu dosyayı https://drive.google.com/drive/folders/0B_iRLUok9_qqOFozeHNFMjRHTVk adresinden indirebilirsiniz.

Dosyanın düzenlenmesi, vektörel olarak eğitilmesi ve belli bir örnek doküman için en yakın örneklerin bulunması işlemleri toplam 8 saat sürdü. Bilgisayarımın sadece 4GB bellek ve 4 işlemciyle ulaşabildiği maksimum hız bu. Bu çalışmada asıl kısıtlayıcı unsur CPU’dan çok, bellek oldu. Süreyi asıl uzatan swap işlemleriydi. Yine de “akşam çalıştır, sabah sonucunu al!” taktiği için uygun bir süre bu.

gundem-nz.txt dosyası 323.6MB boyutunda. Eğitilmiş dosyaların toplam boyutu ise 1.4 GB.

Aldığım sonuçlar aşağıda.

Burada “doküman” sözcüğü yerine “cümle” sözcüğünü kullanmak aslında çok daha doğru olacak. Çünkü veri dosyamızın her satırında ayrı bir cümle var. Eğer bu yapıyı her satırda bir cümle yerine bir paragraf veya bir doküman olarak düzenlersek alacağımız yanıtlar paragraflara ve dokümanlara göre düzenlenmiş olacaktır.

Bu kavramlar sentence2vec, paragraph2vec ve doc2vec olarak sunuluyor. Ama hepsinin işleyişi aynı.

Önceki yazılarımda da belirttiğim gibi dosyamızdaki sözcükleri olduğu gibi kullanmak yerine “kök”lerini kullandığımızda daha başarılı sonuçlar almayı bekleyebiliriz. Çünkü bu durumda sözcüklerin sayısı azalarak daha kolay öbeklenebilir hale gelecektir.

Yukarıdaki örnekte benim dikkatimi ilk çeken ayrıntı, aynı cümlenin kendi kendine yakınlığının sadece 0.6513625979423523 çıkmasıydı. Oysa bu, en azından, 1’e daha yakın olmalıydı diye düşünüyorum.

İlk 4 cümlede “adem” sözcüğü ortak payda gibi görünüyor. Sonrakilerde kolay görülebilen bir payda yok.

Vektör boyutunu ve veri büyüklüğünü arttırmak, daha kolay anlaşılır sonuçlar elde etmemizi sağlayacaktır. Eğer elinizdeki olanaklar uygunsa, siz de bu tür denemeler yapabilirsiniz. (Ben vektör boyunu 100 olarak aldım.)

Doc2vec yöntemiyle ilgili bilgi ve örnekler oldukça kısıtlı.
Eğer bu tür bilgilere erişebilirseniz, lütfen, linklerini benimle paylaşmanızı rica ediyorum.

Yeni çalışmalarımı yine buradan duyuracağım.
Beni izleyin!

Ahmet Aksoy

Linkler:

http://gurmezin.com/gensim-vektorel-dokuman-egitimi/