Analizlere Yönelik Mimari

Bir analiz sistemi oluşturmadan önce, BT departmanlarının bu önemli konuları göz önünde bulundurmaları gerekir.

Kullanıcılar, Büyük Veri'nin karşılığını almak için birçok karar vermelidir. Intel, analiz ‘yığını’ oluşturma konusunda birçok yaklaşım görmüş ve bunların mimari bakımından olası sonuçlarına tanık olmuştur. Projenizin başarılı olmasını sağlayacak bazı etmenleri burada açıklayacağız.

BT yöneticileri, düzene koyulmadan ve analiz edilmeden önce verilerin ne kadar uzağa gideceklerine karar vermelidir. En pratik iki seçenek de güçlü ve zayıf yanlara sahiptir.

Öte yandan, ham verileri ayıklama zorunluluğu, analizi yavaşlatabilir ve veri göllerinin gerekli olmayacak verileri depolaması kaçınılmaz olur.

Bununla birlikte, EMC'nin teknolojiden sorumlu küresel başkanı ve seçkin bir mühendis olan Patricia Florissi'ye göre, artılar eksilerden ağır basıyor.

“Verileri taşımadan analiz yapabiliyor olmanız gerekir,” diyor.

EMC, veri gölü çözümlerinde farklı kaynaklardan gelen ham verileri birden çok formatta depoluyor. Bu yaklaşım sayesinde, analistler daha fazla bilgiye erişebiliyor ve verilerin önceden temizlenmesi veya bazılarının atılması durumunda kaybolabilecek olan şeyleri keşfedebiliyor.

Florissi, büyük analiz çalışmalarının birden çok veri gölü gerektirebileceğini de ekliyor.

Medya holdingi AOL'in bilgi teknolojilerinden sorumlu başkanı James LaPlaine, AOL'in de veri gölleri kullandığını belirtiyor. Şirketin günde milyarlarca işlemle ilgilendiğini ve “çok büyük veri kümelerini kopyalamanın uzun zaman aldığını”, söylüyor. Verileri asıl formatında bırakmak ve yakalandıkları noktadan alıp doğrudan açık buluta taşımak, daha sonra dahili ağ içinde kopyalamanın maliyetini ortadan kaldırıyor.

Zengin verilerimizin tamamı tek bir yerde olsun istiyoruz, böylece şirket genelinde gerçeğin tek bir kaynağı oluyor.

Mike Bojdak, Sr. AOL, Üst Düzey Teknoloji Direktörü

Hangi Tür Veritabanı Kullanılmalı?

Veri niteliği, formatlama ve gecikme gibi birçok faktörün rol oynadığı bir analiz projesinde doğru veritabanını seçmek önemlidir.

Intel'in veritabanlarını değiştirdiği projede, “birbirinden bağımsız kaynaklardan alınan veriler kullanılarak ileri düzey bir sorgu yapılması gerekiyordu,” diyor Safa. Bir SQL veritabanında çalışan sorgulama dört saat sürdü. Aynı sorgulama, bellek içi bir veritabanında 10 dakika sürdü. Ancak Safa bu özelliğin bellek içi veritabanını her uygulama için doğru seçenek haline getirmediğini belirtiyor. Her zaman eldeki görevin iş hedeflerine bakmak gerekiyor.

Safa, başlangıç noktası olarak projenin model mi aradığını, yoksa kesin doğruluk mu gerektirdiğini düşünmek gerektirdiğini söylüyor.

Hadoop gibi verileri farklı formatlarda depolayan dağıtımlı veritabanlarının eğilimleri bulmaya odaklanan projelerde çok işe yaradığını belirtiyor. Bu durumlarda birkaç yanlış veri noktası, sonucu önemli ölçüde değiştirmeyecektir.

Öte yandan, “Üretim sürecinizde belirli bir anda belirli malzemelerin nerede olduğunu belirlemeye çalışıyorsanız, hiç gecikme olmadan yüzde 100 doğruluğa ihtiyacınız vardır.”

Bunun için gerçek zamanlı çözümler için tasarlanmış, daha iyi yapılandırılmış ve daha fazla kontrole sahip bir veritabanı gerekir. Bir şirket, kendi özel ihtiyaçlarına bağlı olarak, bellek içi veri işleme çerçevesi veya performans odaklı bir NoSQL veritabanını tercih edebilir. Birçok analiz veritabanı türü, birbiriyle çakışan yeteneklere sahip olsa da özellikleri bariz bir şekilde farklıdır.

Veri sınıflandırma yoğun emek gerektiren, ancak hatasız gerçekleştirilmesi gereken bir süreç.

James LaPlaine, AOL Bilgi Teknolojilerden Sorumlu Başkan

Erişim Nasıl Kontrol Edilmeli?

BT departmanları, büyük verinin güvenliğini sağlarken, uygunsuz erişimi önlemek ile yeterli erişim sağlamak arasında tercih yapmak ve bunlardan birinden ödün vermek zorunda kalıyor.

Forrester Research başkan yardımcısı ve baş analisti Brian Hopkins, parolalar veya çok faktörlü kimlik doğrulama gibi standart çevresel kimlik doğrulama ve yetkilendirme mekanizmalarıyla erişimi kontrol altına almayı tavsiye ediyor. Ancak şirketlerin aynı zamanda verileri şifrelemeleri ve bir şifre sistemiyle (tokenization) veri paylaşımını kısıtlamaları gerektiğini belirtiyor.

Verilerin güvenliğin sağlamanın diğer yolları arasında, verilerin geldiği sistemde erişim ayrıcalıkları kullanmak ve analiz edilen verilere erişimi analizi gerçekleştiren kişi veya ekiple sınırlı tutmak yer alıyor.

AOL zengin verilerinin tamamını merkezi bir buluta koymayı hedefliyor olsa da birçok düzeyde erişim kontrolleri uygulamayı da ihmal etmiyor.

Bir analist, verileri manuel olarak gözden geçiriyor ve hassasiyet durumuna göre bir erişim düzeyi belirliyor; bir kimlik doğrulama sistemi ise yalnızca o erişim düzeyinin verildiği kişilerin verileri görüntülemesini sağlıyor.

LaPlaine, AOL'in kimlik doğrulaması sistemi için doğru erişim sınıflandırılmasının yapıldığından emin olmak için verileri sürekli olarak gözden geçirdiğini belirtiyor. “Veri sınıflandırma manuel bir süreç,” diyor LaPlaine. “Yoğun emek gerektiren bir süreç, ancak hatasız yapılması gereken bir iş.”

“Analistlerin ihtiyaçları ile verilerin tamamen güvende olmasını sağlamak arasında bir denge kurmaya çalışıyoruz,” diye ekliyor Bojdak.

‘Verilerden Eyleme’ dosyasını indirin


Haber Bülteni

En sevilen planlama kılavuzlarımızı ve görüşleri doğrudan e-postanıza gönderelim.

Şimdi kaydolun