Mevcut altyapıyla yapay zeka riskini azaltın ve giriş engellerini alçaltın.
Makine öğrenimi ve derin öğrenmenin verilerinizden ne kadar değer elde etmenizi sağlayacağı, söz konusu kullanım durumlarına bağlıdır. Kuruluşunuzun deney yapmaya ne kadar istekli olduğu da belirleyicidir.
Farklı kuruluşlar yapay zeka (AI) yolculuklarının farklı aşamalarında olsalar da başlamak için mevcut altyapıdan faydalanmak deney yapmanın riskini düşürür. Intel, bu konuda destek olmak için TensorFlow* ve Theano* dahil birçok popüler derin öğrenme çerçevesini Intel® mimarisinde çalışmak üzere optimize etti.
Ayrıca, büyük veride derin öğrenmeden faydalanılmasını sağlamak üzere BigDL geliştirildi. Doğrudan mevcut Spark ya da Apache Hadoop* kümelerinin üzerinde çalışabilen ve Apache Spark* (DL Library for Apache Spark*) için geliştirilen dağıtımlı bir derin öğrenme kitaplığı olan bu teknoloji, geliştirme ekiplerinizin Scala ya da Python programları gibi derin öğrenme uygulamaları yazmalarına olanak tanır.
BigDL, her Spark görevinde Intel® Math Kernel Library (Intel® MKL) ve çok iş parçacıklı programlamadan faydalanır. Böylece derin öğrenme performansını tek düğümlü bir Intel® Xeon® işlemcide üzerinde hiç değişiklik yapılmamış bir açık kaynak Torch* ya da TensorFlow çerçevesine kıyasla artırarak yüksek performans elde edilmesine yardımcı olur.
Yapay zeka ile deneme yapmanın riskleri daha düşüktür, çünkü kuruluşlar başlamak için mevcut veri merkezi altyapılarını kullanabilirler.
Neredeyse tüm sektörlerde etki yaratabilecek üç yapay zeka kullanım durumu
Intel, şirketlerin mevcut veri merkezi altyapılarında deneme yapabilecekleri üç temel alan olduğunu düşünüyor: görüntü tanıma, doğal dil işleme (NLP) ve öngörücü bakım. Yukarı ölçekleme zamanı geldiğinde ise mevcut veri merkezi altyapınızda açık kaynak çerçevelerinden faydalanmış olmanız, şirket genelinde yapay zekanın benimsenmesini kolaylaştırma bakımından gerçek bir fark yaratabilir.
1) Görüntü tanıma
Görüntü tanıma uygulamaları, günümüzde kalite kontrol (ürün kusurlarını belirleme), güvenlik (yüzleri ve araç plakalarını tarama) ve sağlık (tümörleri saptama) amaçlarıyla devreye alınır.
Şirketlerin karşılaştığı yaygın zorluklardan biri görüntü sınıflandırma ve tanıma algoritmalarını eğitmek için yeterli veriyi toplamaktır. Ayrıca görüntülerin önceden işlenmesi, toplam çözüm süresinin yarısından fazlasına tekabül edebilir. Intel® Xeon® işlemciler, bunun üstesinden gelmek için veri artırmaya yönelik uygulamaları destekler. Görüntüleri döndürebilen, ölçekleyebilen ve renk ayarları yapabilen bu uygulamalar, kullanım durumuna bağlı olarak görüntü tanıma algoritmalarını etkili bir şekilde eğitmek için gereken görüntülerin sayısını azaltabilir.
CPU’lar, güç verimliliği ve 200 Gb/sn’ye ulaşan yüksek bellek bant genişliği sayesinde veri artırma iş yüklerinde daha yüksek performans gösterir. Bu durum özellikle Intel® Advanced Vector Extensions 512 (Intel® AVX-512) yönerge seti ile desteklenen Ölçeklenebilir Intel® Xeon® işlemci ailesi için geçerlidir.
CPU’lar, güç verimliliği ve 200 Gb/sn’ye ulaşan yüksek bellek bant genişliği sayesinde veri artırma iş yüklerinde daha yüksek performans gösterir.
2) Doğal dil işleme
Ses ile etkinleştirilen sanal asistanlar, talepleri doğru bir şekilde işleme almakla kalmaz, aynı zamanda sorguların niteliğini anlayarak kendilerini sürekli geliştirirler. Benzer şekilde çağrı merkezi kayıtlarını veya el yazısıyla doldurulan formları işleme alabilen sistemler, müşteri deneyimini ve memnuniyetini yeniden şekillendirebilir. Bu tür veri kaynakları,
NLP, tekrarlayan sinir ağı (RNN) adı verilen bir teknikten ve uzun kısa süreli bellekten (LSTM) faydalanır. Bu operasyonları oluşturan döngüler ve destek dosyaları işlenirken, Intel® Advanced Vector Extensions 512 (Intel® AVX-512) yönerge seti de sürece katılır.
3) Öngörücü bakım
Genellikle çok daha düşük bir veri oranına bağlı olması bakımından görüntü tanımadan ve NLP’den ayrılan öngörücü bakım, uç noktadaki koşulları gözlemleyen sensörlerin topladığı bilgileri kullanır. İdeal olarak, bilgilerin analiz ya da karar aşaması için buluta gönderilmesinden önce, uç noktada mümkün olduğunca çok hesaplama yapılması gerekir. Gücünü bir VPU’dan alan Intel® Movidius™ Neural Compute Stick, uç noktada derin öğrenme gelişimini hızlandırmak üzere tasarlanmıştır.
İzleyin: Yapay zeka, kuruluşların kritik altyapıyı desteklemek üzere öngörücü bakımdan giderek daha çok faydalanmalarını sağlıyor.
Hemen yapay zeka çalışmalarına başlayın