Bu beş gün süren atölye çalışması, Apache Spark 2 ve Hadoop ekosisteminin diğer önemli bileşenlerinin büyük ölçeklerde kullanıldığı veri bilimi ve makine öğrenimi iş akışlarını içerir. Atölye çalışması, gerçek dünyadaki iş zorluklarının üstesinden gelinebilmesi için veri bilimi ve makine öğrenimi yöntemlerinin kullanımının önemini gösterir.
Katılımcılar hayali bir teknoloji şirketinin ve veri setlerinin olduğu senaryoları kullanarak, kritik iş kararlarını desteklemek ve iş yapış şekillerini dönüştüren veri ürünleri geliştirmek üzere gerekli bilgileri keşfetmeye çalışırlar. Materyaller, bir dizi kısa sunumlar, etkileşimli gösteriler, kapsamlı uygulamalı alıştırmalar ve tartışmalar aracılığıyla sunulur.
Atölye çalışması, şu anda Python’u tek makinede küçük veri kümelerinde kullanan ve analizlerini ve makine öğrenimi modellerini dağıtık kümelerdeki büyük veri kümelerine genişletmek ihtiyacı duyan veri bilimcileri için tasarlanmıştır. Veri bilimi ve makine öğrenimi bilgisine sahip veri mühendisleri ve geliştiriciler de bu atölye çalışmasını faydalı bulabilir.
Ön koşullar
Atölye çalışmasına katılanların, Python ile ilgili temel bilgilere sahip olmaları, veri araştırma, veri analizi, istatistiksel veya makine öğrenimi modeli geliştirme gibi konularda deneyimli olmaları gerekir. Hadoop veya Spark ile ilgili bilgi sahibi olunması gerekli değildir.