Showing posts with label Türkçe. Show all posts
Showing posts with label Türkçe. Show all posts

January 07, 2025

Dördüncü yapay zeka devrimi

KUIS AI, Bizim İçin Bilim, Yapay Zekadan Öyküler

Full post...

April 09, 2024

IPN röportajı: Yapay Zeka Devrimi: Gelecekte Nasıl Ayakta Kalırız

Yapay zekanın geçmişi, bugünü ve geleceği Gençlerin yapay zeka alanında hangi meslekleri seçebilecekleri | Gençlere meslek seçiminde tavsiyeler Yapay zeka alanında başarılı olmak için gereken beceriler | Akıllı yazılımların farklı sektörlerdeki etkileri Tuğba Ağaoğlu'nun sunduğu program: https://youtu.be/p5xWWrS8XLA?si=cKBFh4T8AZqwHHLY.


Full post...

September 20, 2022

Teke Tek Bilim Programı

Habertürk TV Teke Tek Bilim Programında Fatih Altaylı, Boğaziçi'nden Cem Say ve ODTÜ'den Şeyda Ertekin ile yapay zeka konuştuk. Tüm program için link: https://youtu.be/1R2XHcOXq9o.

Full post...

February 01, 2021

Programlama pratik yaparak öğrenilir: Kumbara Dergisi Röportaj

İş Bankası, Koç Üniversitesi işbirliğinde ülkemizin bilimsel ve akademik faaliyetlerine katkıda bulunmak amacıyla “Yapay Zekâ Uygulama ve Araştırma Merkezi” kurdu. Bu merkezle yapay zekâ alanında ileri düzeyde çalışmalar gerçekleştirilmesi amaçlanıyor. Kumbara Dergisi olarak, Koç Üniversitesi İş Bankası Yapay Zekâ Uygulama ve Araştırma Merkezi Direktörü Prof. Dr. Deniz Yuret’e yapay zekâ alanı ve Yapay Zekâ Uygulama ve Araştırma Merkezi hakkında sorular sorduk.

Tüm Röportaj


Full post...

June 28, 2019

Julia ile Derin Öğrenmeye Giriş

Julia ile Derin Öğrenmeye Giriş. (c) Deniz Yuret. 28 Haziran 2019.
Kuzeybatıda Yapay Öğrenme Yaz Okulu: http://midas.ku.edu.tr/kbyoyo19
Dersleri kendi bilgisayarınızdan takip edebilmek için: https://juliabox.com sitesine girin. Launch tuşuna bastıktan sonra tutorials/more-advanced-materials/ML-demos/knet-tutorial dizininden Jupyter Notebook formatındaki programları çalıştırabilirsiniz.

0. Playlist: https://www.youtube.com/playlist?list=PL...
1. Yapay öğrenmeye giriş: https://youtu.be/O2RvuMuUrcU
2. Neden Julia?: https://youtu.be/vgHlxx8dYQU
3. Julia öğrenelim: https://youtu.be/UyMkY96fmWE
4. MNIST el yazısı tanıma: https://youtu.be/mfw8RUyWyEI
5. Klasik algoritmalar: https://youtu.be/eGBwUU1IDmo
6. Doğrusal modeller: https://youtu.be/pci3wKp6ShQ
7. Çok katmanlı modeller: https://youtu.be/9y58qO4KGrY
8. Evrişimli sinir ağları: https://youtu.be/Awit7u5sloA
9. Özyineli sinir ağları: https://youtu.be/FWpL8QriEKY
10. IMDB duyarlılık analizi: https://youtu.be/Ky_mmryTKv4
11. Harf tabanlı dil modelleri: https://youtu.be/EPU5FRYI3uw
12. Soru cevap: https://youtu.be/M8uuIX0U4sI
Full post...

June 16, 2019

"Tasarım Ne Bekler" kitabındaki yapay zeka sohbetim

GELECEKTE YAZI OLACAK MI? EMİN DEĞİLİM…
Deniz Yüret
Hazırlayan: Meriç Tuncez
Tasarım Ne Bekler, © 2019 KUAR Yayınları

Konumuzla alakalı araştırma yaparken 2015 yılında Google’ın siyahi bir çiftin fotoğrafını goriller olarak etiketlediğine dair bir haberle karşılaştım. Benzer şekilde Google’ın iş önerilerinde bulunurken erkeklere kadınlara oranla altı kat daha yüksek maaşlı işler önerdiğine dair bir haber var. Bu bilgiden yola çıkarsak yapay zekânın algoritma kaynaklı (algorithmic) önyargıdan yani onu üreten kişinin ön yargılarından uzaklaşması mümkün mü? Ya da nasıl mümkün olabilir?

Öncelikle programın niye bu ön yargılara sahip olduğunu kısaca anlatayım. Bu bahsettiğin teknolojilerin hepsi eski usul “Yazılım 1.0” diyebileceğimiz birilerinin oturup bilgisayara bir şeyler programlaması şeklinde geliştirilmiyor.

Bana 20 sene önce bu soru sorulsaydı derdim ki “Bunu yazan programcı ırkçı ya da cinsiyetçi. Dolayısıyla bu adamı işten atın.” Ama şu anda artık bu yeni teknolojiler bu şekilde geliştirilmiyor. Onun yerine örneklere bakarak istatistikler üzerinden geliştiriliyor.

Yani iş bulma ya da resimden bir şeyler tanıma konusunda bir sürü etiketlenmiş veri hazırlıyorsunuz. Bu etiketlendirilmiş veriyi bilgisayara veriyorsunuz. Bilgisayar milyonlarca örnek üzerinden birtakım şeyleri öğrenip ondan sonra sizin sorularınıza cevap vermeye başlıyor.

Şimdi verdiğiniz veride bir önyargı var ve orada cinsiyetçi ya da ırkçı birtakım şeyler varsa programın önyargıyı da bu algoritmaların içine alması gayet normal. Bu durum algoritmanın suçu değil, verdiğimiz verinin suçu. Dolayısıyla biz eğer bu önyargı konusunda gerçekten duyarlı davranmak istiyorsak veriyi ona göre hazırlamamız lazım.

Yani bilgisayarda onu eğitim verisi olarak kullanmadan önce veriyi dengelememiz lazım. Benzer bir olay geçen sene Microsoft’ta yaşandı. Bir “sohbet robotu” (chatbot) hazırlayıp bunu Twitter’a saldılar. 24 saat sonra kapatmak zorunda kaldılar çünkü insanlardan birçok kötü, ırkçı cinsiyetçi dil elemanlarını öğrenip bunları taklit etmeye başlamıştı.

Yani bu öğrenme algoritmalarını masum birer bebek olarak düşünebiliriz. Ona ne öğretirsek o da aynı şekilde onu tekrarlamayı öğreniyor. Dolayısıyla bu öğretmenin kabahati olabilir.

Örneğin bir AlphaGo (Google DeepMind tarafından geliştirilmiş Go oyununu oynayan bir program) problemini ele aldığımızda bizim kazandığımız nokta belli. Yani nasıl kazanabileceğimiz o oyunda belli ve skorumuz var. Ama mesela bir tasarım probleminde aynı şekilde olmuyor bu, birçok farklı sonuca gitme yolu olduğunu görüyoruz. Örneğin bir iklim değişikliği için tasarım yapılacağı zaman “yapay zekâ”yı nasıl kullanabiliriz? Bizim çıktımız ne olacak burada? Yani sadece “iklimdeki sıcaklığı düşürmek” mi çıktımız? Yoksa başka bir şey mi? Yani böyle karışık bir problemde sonuçlarını ve neyin doğru olduğunu bilemediğimiz durumlarda biz yapay zekâyı ya da “özdevimli öğrenme”yi (machine learning) nasıl tasarımlarımızda kullanabiliriz?

Bu bence şu anda dahi çözümlenememiş bir soru. Çünkü yapay zekâ modellerini eğitirken verdiğimiz verinin yanı sıra bir de “objektif fonksiyon” (objective function) ya da “hata fonksiyonu” (error function) denilen bir değer atamamız gerekli.

Yani genel olarak “Ben sana böyle girdiler verdiğimde böyle çıktılar istiyorum” gibi bir eğitim verisi veriyoruz bu öğrenen programlara. Ama onun yanı sıra “Sen bu istediğim çıktıyı değil ondan biraz daha farklı bir çıktı üretirsen de ben senin hata oranını şu şekilde ölçeceğim, senin objektif fonksiyonun bu olacak.” şeklinde tasarımcının karar vermesi gerekiyor. Dolayısıyla neyi en uygun şekilde kullanacağımıza bizim karar vermemiz lazım. Bu dediğim gibi çok kolay bir problem değil. Özellikle iklim değişikliği gibi karmaşık konularda problem daha da zorlaşıyor.

Elon Musk’ın bu “Robotlar dünyayı fethedecek.” senaryosunu aydınlatabilecek çalışmalar yapılmakta günümüzde ve araştırmacıların en çok kaygılandığı konu bu. Yani biz yapay zekâya bir hedef belirlerken o hedef belirleme konusunda çok dikkatli olmazsak bu sistemlerin bizim o anda hiç beklemediğimiz birtakım yönlere gitmesi mümkün.

Diyelim ki dünyanın ısısını düşürmeyi bir hedef olarak verirsek bize verdiği çözümler yeni bir buz çağına sebep olabilir. Ama diğer yandan bu yeni bir problem değil ve yapay zekâya mahsus bir problem de değil. Geçenlerde yapay zekânın bu objektif fonksiyon problemi ile finansal marketleri ya da politik sistemleri karşılaştıran bir makale okudum. İnsanlar uzun zamandır karmaşık sistemler tasarlamakta güçlük çekiyorlar.

Dolayısıyla gayet iyi niyetlerle tasarlanmış Avrupa Birliği ya da Menkul Kıymetler Borsası gibi karmaşık sosyal sistemler düşünün. Bu sistemlerde de tasarlayanların kötü bir niyeti olmamasına rağmen sistem kendi dinamikleri içerisinde hiç beklemediğimiz birtakım sonuçlara sebep olup bize zarar verecek yönlere gidebiliyor.

Dolayısıyla bu bence üzerinde çalışmamız gereken bir sorun. Bunun bu arada teknik olarak kullanılan adı “hizalama” (alignment). “Sizin değerlerinizle geliştirdiğiniz sistemin ya da programın değerlerinin birbirine paralel hale getirilmesi nasıl mümkün olabilir?” Bu halen üzerinde çalışılan açık bir problem.

Gerisini oku




Full post...

July 02, 2018

April 28, 2017

The third deep learning revolution

1st presentation: April 19, 2017. Koç University Alumni Club.
2nd presentation: June 4, 2017. GİF Young Scholars Seminar.
3rd presentation: November 17, 2017. İzmir Fen Lisesi.
4th presentation: March 2, 2018. FMV Özel Ayazağa Işık Fen Lisesi.
5th presentation: March 21, 2018. İTÜ Mimarlık Bölümü.
6th presentation: April 20, 2018. Borsa İstanbul. (latest version)

The first revolution took place 1958-1969.
  • We figured out how to train perceptrons.
  • We proved the perceptron convergence theorem.
  • Interest waned after a book (Perceptrons) written by mathematicians.
The second revolution took place 1986-1995.
  • We figured out how to train multi-layer perceptrons.
  • We proved the universal approximation theorem.
  • Interest waned after a book (SLT) written by mathematicians.
The third revolution started in 2012.
  • We figured out how to train deep nets.
  • A mathematician will write a book around 2022.
  • The fourth revolution will not start until 2036 :)

Full post...

December 19, 2016

Julia ve Knet ile Derin Öğrenmeye Giriş

Sunumlar:
  • Data İstanbul, 21 Aralık 2016 Çarşamba, 19:30 (URL, Sunum,Video).
  • ODTÜ Yapay Öğrenme ve Bilgi İşlemede Yeni Teknikler Yaz Okulu (OBAYO), 6-9 Eylül, 2016, ODTÜ, Ankara. (URL, Sunum,Video)
  • İsmail Arı Bilgisayar Bilimleri ve Mühendisliği Bilimsel Eğitim Etkinliği (ISMAIL 2017), 31 Temmuz - 4 Ağustos 2017 Boğaziçi Üniversitesi, İstanbul. (URL).

Full post...