Knowledge Distillation – Bilgi Damıtımı

« Back to Glossary Index

Knowledge Distillation nedir?

Türkçesi: Bilgi Damıtımı

İngilizcesi: Knowledge Distillation

Türkçe Okunuşu: noliç distileyşın

İngilizce Okunuşu: /ˈnɒlɪdʒ ˌdɪstɪˈleɪʃən/

Dilbilgisi: İsim, (yapay zekâ ve makine öğrenmesi terimi)

Köken: İngilizce kökenlidir. “Knowledge” Eski İngilizce cnāwleċe (bilgi) kelimesinden, “distillation” ise Latince distillare (damla damla ayırmak, süzmek) fiilinden türemiştir. Terim, 2015 yılında Geoffrey Hinton ve çalışma arkadaşlarının derin öğrenme literatürüne kazandırdığı modern anlamıyla yaygınlaşmıştır.

Alakalı Sözcükler: Teacher Model, Student Model, Model Compression, Soft Labels, Transfer Learning, Model Pruning, Edge AI

Knowledge Distillation, büyük ve karmaşık bir yapay zekâ modelinin öğrendiği bilgiyi, daha küçük ve hafif bir modele aktarma tekniğidir. Amaç, yüksek doğruluk seviyesini korurken model boyutunu, hesaplama maliyetini ve gecikmeyi azaltmaktır.

Bu yaklaşım, sınırlı donanım gücüne sahip cihazlarda ve hızlı tepki gerektiren uygulamalarda tercih edilir.

« Fihriste Dön