• Sonuç bulunamadı

ÇOCUKLAR İÇİN YAPAY ZEKA EĞİTİMİ BİLGİLENDİRME SUNUMU

N/A
N/A
Protected

Academic year: 2022

Share "ÇOCUKLAR İÇİN YAPAY ZEKA EĞİTİMİ BİLGİLENDİRME SUNUMU"

Copied!
27
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

ÇOCUKLAR İÇİN

YAPAY ZEKA EĞİTİMİ

BİLGİLENDİRME SUNUMU

(2)

İÇERİK

• Yapay Zeka Alt Dalları

Yapay Sinir Ağları

Makine Öğrenmesi

Derin Öğrenme

• MBlock5 Kurulumu

Ve Arayüzünün Tanıtımı

(3)

Yapay Sinir Ağları

Biyolojik Sinir Hücresinin Yapısı

(4)

Dentrit: Görevi diğer sinir hücrelerinden iletilen sinyalleri, sinir hücresinin çekirdeğine iletmektedir.

Çekirdek: Dendritler yoluyla iletilen tüm sinyalleri alıp toplayan merkezdir. Çekirdek gelen toplam sinyali diğer sinir hücrelerine göndermek üzere, bilgiyi aksona iletir.

Akson: Hücre çekirdeğinden aldığı toplam bilgiyi bir sonraki sinir hücresine dağıtmakla görevlidir. Ancak akson bu toplam sinyalin ön işlemden geçirilmeden diğer sinir hücresine aktarılmasına engel olur. Çünkü akson ucunda sinapsis denilen birimlere bilgiyi aktarır.

Sinapsis: Aksondan gelen toplam bilgiyi ön işlemden geçirdikten sonra diğer sinir hücrelerinin dendritlerine iletmekle görevlidir. Sinapsisin ön işlem ile

gerçekleştirdiği görev çok önem taşımaktadır. Bu ön işlem gelen toplam sinyalin, belli bir eşik değerine göre değiştirilmesinden ibarettir. Böylece toplam sinyal

olduğu gibi değil, belli bir aralığa indirgenerek diğer sinir hücrelerine iletilmiş olunur.

(5)

Örnek Yapay Sinir Hücresi Yapımı

(6)

Perceptron (Algılayıcı)

Dış ortamdan veya diğer hücrelerden alınan girdiler, ağırlıklar yardımıyla hücreye bağlanır. Toplama fonksiyonu ile net girdi

hesaplanır. Net girdinin aktivasyon fonksiyonundan geçirilmesiyle net çıktı hesaplanır. Bu işlem aynı zamanda bir hücrenin çıkışını verir.

Her bağlantının bir ağırlık değeri vardır.

YSA, kendisine örnekler gösterildikçe bu ağırlık değerlerini değiştirir.

(7)

Neuron ve Perceptron Karşılaştırımı

(8)

Yapay Sinir Ağları Etkinliği

(9)

Aktivasyon Fonksiyonu

• Bu fonksiyon hücreye gelen net girdiyi işleyerek hücrenin bu girdiye karşılık üreteceği çıktıyı belirler.

• Aktivasyon fonksiyonu genellikle doğrusal olmayan bir fonksiyon seçilir. Yapay sinir ağlarının bir özelliği olan

“doğrusal olmama” aktivasyon fonksiyonlarının doğrusal olmama özelliğinden gelmektedir.

• Aktivasyon fonksiyonu seçilirken dikkat edilmesi gereken bir diğer nokta ise fonksiyonun türevinin kolay hesaplanabilir olmasıdır. Geri beslemeli ağlarda aktivasyon fonksiyonunun türevi de kullanıldığı için hesaplamanın yavaşlamaması için türevi kolay hesaplanır bir fonksiyon seçilir.

• Günümüzde en yaygın olarak kullanılan “Çok katmanlı algılayıcı” modelinde genel olarak aktivasyon fonksiyonu olarak “Sigmoid fonksiyonu” kullanılır)

(10)

Aktivasyon Fonksiyonları

(11)
(12)
(13)

Örnek

(14)

YSA’nın Genel Yapısı

(15)

YSA’nın Genel Yapısı

Giriş Katmanı: Yapay sinir ağına dış dünyadan girdilerin geldiği katmandır.

Bu katmanda dış dünyadan gelecek giriş sayısı kadar hücrenin bulunmasına rağmen genelde girdiler herhangi bir işleme uğramadan alt katmanlara iletilmektedir.

Ara (Gizli) Katman(lar): Giriş katmanından çıkan bilgiler bu katmana gelir.

Ara katman sayısı ağdan ağa değişebilir. Bazı yapay sinir ağlarında ara katman bulunmadığı gibi bazı yapay sinir ağlarında ise birden fazla ara katman bulunmaktadır. Ara katmanlardaki nöron sayıları giriş ve çıkış sayısından bağımsızdır. Ara katmanların ve bu katmanlardaki nöronların sayısının artması hesaplama karmaşıklığını ve süresini arttırmasına rağmen yapay sinir ağının daha karmaşık problemlerin çözümünde de

kullanılabilmesini sağlar.

Çıkış Katmanı: Ara katmanlardan gelen bilgileri işleyerek ağın çıktılarını üreten katmandır. Bu katmanda üretilen çıktılar dış dünyaya gönderilir.

Geri beslemeli ağlarda bu katmanda üretilen çıktı kullanılarak ağın yeni ağırlık değerleri hesaplanır.

(16)

YSA’nın Sınıflandırılması

• Yapılarına Göre

• Öğrenme Algoritmalarına Göre

• Öğrenme Zamanına Göre

(17)

Yapılarına Göre

İleri Beslemeli Ağlar: İleri beslemeli ağlarda nöronlar girişten çıkışa doğru düzenli katmanlar şeklindedir. Bir katmandan sadece kendinden sonraki katmanlara bağ bulunmaktadır.

Yapay sinir ağına gelen bilgiler giriş katmanına daha sonra sırasıyla ara katmanlardan ve çıkış katmanından işlenerek geçer ve daha sonra dış dünyaya çıkar.

Geri Beslemeli Ağları: Geri beslemeli yapay sinir ağlarında ileri beslemeli olanların aksine bir hücrenin çıktısı sadece

kendinden sonra gelen hücrenin katmanına girdi olarak

verilmez. Kendinden önceki katmanda veya kendi katmanında bulunan herhangi bir hücreye de girdi olarak bağlanabilir.

(18)

Öğrenme Algoritmalarına Göre

Danışmanlı Öğrenme:Danışmanlı öğrenme sırasında ağa verilen giriş değerleri için çıktı değerleri de verilir. Ağ verilen girdiler için istenen çıkışları oluşturabilmek için kendi ağırlıklarını günceller. Ağın çıktıları ile beklenen çıktılar arasındaki hata hesaplanarak ağın yeni ağırlıkları bu hata payına göre düzenlenir.

Danışmansız Öğrenme: Danışmansız öğrenmede ağa öğrenme sırasında sadece örnek girdiler verilmektedir. Herhangi bir beklenen çıktı bilgisi verilmez. Girişte verilen bilgilere göre ağ her bir örneği kendi arasında sınıflandıracak şekilde kendi kurallarını oluşturur. Ağ bağlantı ağırlıklarını aynı özellikte olan dokuları ayırabilecek şekilde düzenleyerek öğrenme işlemini tamamlar.

Destekleyici Öğrenme:Bu öğrenme yaklaşımında ağın her iterasyonu sonucunda elde ettiği sonucun iyi veya kötü olup olmadığına dair bir bilgi verilir. Ağ bu bilgilere göre kendini yeniden düzenler. Bu sayede ağ

herhangi bir girdi dizisiyle hem öğrenerek hem de sonuç çıkararak işlemeye devam eder.

(19)

Öğrenme Zamanına Göre

• Statik Öğrenme: Statik öğrenme kuralıyla çalışan yapay

sinir ağları kullanmadan önce eğitilmektedir. Eğitim

tamamlandıktan sonra ağı istenilen şekilde kullanılabilir.

Ancak bu kullanım sırasında ağın üzerindeki ağırlıklarda herhangi bir değişiklik olmaz

• Dinamik Öğrenme: Dinamik öğrenme kuralı ise yapay

sinir ağlarının çalıştığı süre boyunca öğrenmesini

öngörerek tasarlanmıştır. Yapay sinir eğitim aşaması bittikten sonra da daha sonraki kullanımlarında

çıkışların onaylanmasına göre ağırlıklarını değiştirerek

çalışmaya devam eder.

(20)

Makine Ögrenmesi

Makine Öğrenmesi, verilen bir problemi probleme ait ortamdan edinilen veriye göre modelleyen bilgisayar algoritmalarının genel adıdır. Yoğun çalısılan bir konu olduğu için önerilmis birçok yaklasım ve algoritma

mevcuttur. Bu yaklasımların bir kısmı tahmin

(prediction) ve kestirim (estimation) bir kısmı

da sınıflandırma (classification) yapabilme

yeteneğine sahiptir.

(21)

Makine Ögrenmesi Terimleri

• Tahmin (prediction): Veriden öğrenen modellerde sistem çıkısının nicel olması durumunda kullanılan yöntemlerin ürettiği değerlerdir.

• Sınıflandırma (classification): Giris verisine ait çıkısların nitel olduğu durumlarda kullanılan

yöntemlerin her veri örneğinin hangi sınıfa ait

olduğunu belirlemesidir.

(22)

Tahmin ve Kestirim

Hava Tahminleri

(23)

Sınıflandırıcı

(24)

Derin Öğrenme

• Derin öğrenme, verilen bir veri seti ile sonuçları tahmin eden birden fazla

katmandan oluşan bir makine öğrenme yöntemidir. Derin öğrenme, makine

öğrenmesi ve yapay zekâ birbirinden farklı anlamları olan terimlerdir. Derin öğrenme, makine öğrenmesinin; makine öğrenmesi ise yapay zekânın alt dalı olarak

özetlenebilir.

(25)

Örnek Derin Öğrenme Materyali

(26)

Yapay Zeka Alt Dalları

(27)

Şimdi Uygulama Zamanı!

Mblock5’i kurarak makine öğrenmesi

platformu olarak kullanacağız.

Referanslar

Benzer Belgeler

Klasik uzman sistemler göre en büyük farkı, klasik uzman sistemler sadece sıcaklık ve basıncın belli bir değerden sonrasrnr yüksek yada düşük olarak kabul

Pac-Man is a registered trademark of Namco-Bandai Games, used here for educational purposes Demo1: pacman-l1.mp4

 State space graph: A mathematical representation of a search problem.  Nodes are (abstracted)

• It is called the depth-first search because it starts from the root node and follows each path to its greatest depth node before moving to the next path.. • DFS uses a stack

 Backtracking is an algorithmic-technique for solving problems recursively by trying to build a solution incrementally, one piece at a time, removing those solutions that fail

 Go: Human champions are now starting to be challenged by machines, though the best humans still beat the best machines.. In go, b

each time step, the process is in some state , and the decision maker may choose any action that is available in

Reinforcement learning is an area of machine learning concerned with how software agents ought to take actions in an environment so as to maximize some notion of cumulative