• Web sitemizin içeriğine ve tüm hizmetlerimize erişim sağlamak için Web sitemize kayıt olmalı ya da giriş yapmalısınız. Web sitemize üye olmak tamamen ücretsizdir.
  • Sohbetokey.com ile canlı okey oynamaya ne dersin? Hem sohbet et, hem mobil okey oyna!
  • Soru mu? Sorun mu? ''Bir Sorum Var?'' sistemimiz aktiftir. Paylaşın beraber çözüm üretelim.

Azure HDInsight ile Büyük Veri Çözümleri 1

Üyelik Tarihi
24 Mar 2017
Konular
1,018
Mesajlar
2,425
MFC Puanı
4,910
İşletme ve Pazarlama gözlüğünü çıkartıp yerine IT profesyonellerinin gözlüğünün taktığımızda ise belli altyapıları kullanarak (Hadoop Ekosistemi) geçmişte gerçekleştirmenin imkansız olduğu veya katlanılamayacak derecede yüksek maliyetlere sahip olan çözümlerin çok daha rahat şekilde hayata döndürülmesidir. Bu gruptaki kulanıcılar bir üst gruptakilere göre daha keskin koşulları vardır ki esasen bu da kullanılan teknolojilerin belli olması durumudur. Ama bu grup da kendi arasında bir anlaşmazlığa düşmektedir. Öyle ki kimi kesimler Hadoop Alt yapısı kullanmasına gerek yok, Big Data Appliance (Exadata, Teradata, PDW) ürünleri kullanması da o işin Big Data olduğunu gösterir diyenler de mevcut.

72098940-a089-4882-8078-45ccc450a318.jpg


Peki bizler niye böyle bir dönüşüme ihtiyaç duyduk? Hayır hayır buraya herkesin bildiği çok klişe olmuş 60 saniyede sosyal medyada olan olayları sıralamayacağım. Fakat sosyal medya platformlarının her birisinin karşılaştıkları sorunların teknoloji üreticiler ile çözülememesi ve kendi geliştirmiş oldukları sistemlerin Big Data ekosistemine katkısı yadsınamaz. Bu cümlem şaşırtıcı gelmesin çünkü ekosistemde yer alan servisleri incelediğiniz zaman arka planlarında ilk üreticilerin Facebook, Twitter, Linkedin olduğunu göreceksiniz. Önce sorunu ele almak lazım. İlk sorun eski dönemlerde yukarıda yer alan görselde de olduğu gibi IT kaynaklarının maliyetlerinin çok yüksek olması durumuydu. Bu sebeple kısıtlı kaynakları doğru kullanmamız ve boşa harcamamamız gerekiyordu. Bundan 10 sene önce geliştirilen yazılımların malesef yüksek bir çoğunluğunda yazılımın hata kodları (log dosyaları) saklanmıyordu. Eğer saklanıyorsa da belli periyotlar saklanıp sonrası farklı platformlara taşınıyordu. Bunu gerçek hayatta da deneyimlemiş olabilirsiniz. Bazı ihtiyaçlarınız doğrultusunda gittiğiniz şirketlerden talep ettiğiniz dökümler dahi belirli bir dönemi kapsıyordu. Çünkü veri tutmanın maliyetleri oldukça yüksekti. Bu durum günümüzde pek kalmadı ve sürekli şekilde düşüş gösteriyor. Özellikle Bulut Bilişim sistemlerinde ihtiyaca göre ölçeklenebilir yapı doğru kurgulandığı zaman maliyet kalemlerimizi oldukça alt boyutlara çekebilmemizi sağlıyor.

Bir diğer konu bir şirket için eskiden belirli periyotlarda ve belli bir iki ana sistemden gelen verinin artık onlarca, yüzlerce farklı platformdan ve sürekli şekilde gelmesi durumu. Örneğin siz bir perakende şirketiyseniz işinize yarayan, analizlerinizde kullanacağınız müşteri verileriniz sadece sizde değildir. Bu tüm şirketler için böyle. Yaptığınız pazarlama faaliyetlerinin başarı oranından tutun, stok yönetiminize, kritik envanter planlanlarından insan kaynakları yönetiminize kadar şirketinizde olmayan ve şirketinizi ilgilendiren milyonlarca veri var. Ve sizin yapmış olduğunuz anlaşmalar neticesinde partnerlarınızdan alarak kendi sistemlerinizdeki verilerle entegre etmeli ve bunun sonucunda da anlamlı yapılar ortaya sunmalısınız. Burada esas konu sürekli akan veriyi işleme problemi. Evet gigabyte ve hatta yaptığınız yatırımlarla terabyte seviyesindeki verileri işleme konusunda RDBMS dediğimiz ve halen çok büyük oranda pazarı domine eden ürünler işimizi kurtarıyordu. Fakat kimi problemler için bu yapılar çözüm olmamaya başladılar. Diyelim ki bir uçak firmasında çalışıyorsunuz. Hatta bu firma Boeing olsun. Son günlerde gerçekleştirdikleri 38 Milyar dolarlık satış işlemiyle bu sıralar gündemde. Boeing uçaklarındaki sensörlerden saat başında yaklaşık 20 Terabyte veri üretimi gerçekleşiyor. Bu rakam şirketlerin çok büyük bir çoğunluğunun bu zamana kadar üretmiş oldukları veri miktarından çok çok daha fazla. (kullanıcıların download ettikleri filmleri saymazsak) veya özellikle benim izlemekten keyif aldığım ve saniyelerin kazanmanıza veya kaybetmenize neden olduğu Formula 1 yarışlarını ele alalım. İnsanların çalışma yaptığı işlemlerde bile saniyeler kritik. Pitstop’lar 1.923 saniyeye kadar düşebiliyor (Red Bull, Austin, 2013) Bu yarışlarda araç başına ortalama 2000 sensör ile 200 GB civarında bir veri üretimi gerçekleşiyor. Peki bunlar nasıl analiz edilecek. İşte biraz önce bahsettiğimiz RDBMS sistemleri bu konuda ya yetersiz kalıyor ya da gerçekleştirilmesi çok yüksek maliyetlere sebep oluyor. Bu sebeple başta sosyal medya platformları olmak üzere bir çok mühendis bu büyük soruna cevap arayan çözümler geliştiriyor ve adına Big Data deniliyor. Her sektörde her alanda onlarca örnek hayatımız ta içinde. Mesela yakın bir tarihte iflasın eşiğine gelen Borussia Dortmund’un veya son dönemlerde oldukça başarı kaydeden Hoffenheim takımının başarı sebeplerini bir araştırın derim.

Kendi vucutlarımızı ele alalım. Çektirmiş olduğunuz bir MR ortalama 150 MB ediyor. Fakat gelişen teknolojiyle birlikte her bir MR’ın 1 GB tan fazla veri sağlayacağı belirtiliyor. Mamografi ise 120 MB civarında. Hal böyle olunca hastanelerde ortalama yıllık 600 TB civarında veri üretileceği varsayılıyor. Ülkemizdeki yapı ise elbette bu durumda değil. Malesef aklınıza gelebilecek en büyük hastanelerde bile her giriş yaptığımda telefon, kimlik vs. Bilgilerim hala isteniyor. Bir türlü veri anlamlandırılıp işe yarar hale getirilememiş. Yığın şeklinde duruyor.

Yine bir başka sorun klasik kullandığımız yapılarda veri türlerinin belli olmasıydı. Ne demek bu derseniz aslında mevcut veri tabanı sistemlerinin çok büyük bir çoğunluğu verileri tablo mantığında tutar ve bu tablolarda bulunan sütunların da veri tipleri bellidir. Ama günlük hayatımıza baktığımızda üretilen verilerin çok çok büyük bir kısmı bu şekilde değil de yapısal olmayan dediğimiz türde yer almaktadır. Burada kastettiğim oran yaklaşık %80 civarında. Örneğin klasik bir veri tabanı ile Breaking Bad dizisinin baş karakteri olan Jesse’nin dizi boyunca kaç kere Yo! Veya bitch kelimesini kullandığını tespit etmeniz oldukça güç.

Sözü daha fazla uzatmayalım. Üç ana başlık altında ihtiyaçların sıralandığı kısmı aslında yukarıda güncel örneklerle açıklamaya çalıştım. Bunlar Velocity (Hız), Variety (Çeşitlilik) ve Volume (Hacim) olarak karşımıza çıkıyor. Ve bu sorunlara karşılık olarak sunulan çözüm HDFS dosyalama yapısının üstünde yer alan Hadoop ismindeki platform ve onu temel alarak çalışan ürünlerdir. Bu konuda giriş yazısı olduğu için daha fazla detay vermeyeceğim. Fakat açık konuşmak gerekirse eskiden ve hali hazırda kullandığımız yapılardan çok daha farklı mantığa sahipler. Bu sebeple ucu bucu olmayan bir dünya ve Big Data’yı tanımlayanları iki gruba ayırmıştık ya işte o ilk grubun gördüğü kadar basit bir dünya değil. Aksine kendi görüşümü söyleyecek olursam her bir servisin kurulumunu, ne işe yaradığını, ne zaman kullanılması gerektiğini öğrenmek ve bunu çok yüksek boyutta yazılım dilleri ile yapmak açıkçası çok zorluyor. Fakat bu bile bir problem ve bunu problem olarak gören kişiler çözüm üretmişler. Bu çözümler ise Hortonworks, Cloudera, Amazon EMR, Azure HDInsight gibi çözümlerle size bu yapıların hazır kurulu olarak gelmesi ve sizlerin bu kurulu yapılar üzerine çalışmanıza olanak sağlanması. Giriş niteliğindeki bu yazımızdan sonra aslında daha teknik konulara değineceğiz ve Azure HDInsight servisi üzerinde servis tanımlamalarını yaparak örnekler geliştirmeye başlayacağız.

Veri’nin ışığında dünyamızın nasıl değiştiğini işletme gözünden daha fazla görmek isteyenler için TED’in yayınlamış olduğu seminerleri şiddetle tavsiye ederim. Öte yandan yeni olan her konuda olduğu gibi bu konuda da türkçe kaynak bulmak oldukça zor. Eğer ki ben biraz daha teknik kısma girmek istiyorum derseniz Hakan İlter’in öncülük ettiği Devveri.com bu konuda bulunmaz nimet.

f1825c90-d067-4e49-b148-9d7c2618ae3e.jpg
 
Üst