İş zekası ve analiz konusunda çözümler sunan Tableau Software şirketinin ürün pazarlama direktörü Dan Kogan büyük veri konusunda 2016 yılı içerisinde şu gelişmelerin yaşanacağını öngörüyor:
- NoSQL devri. Kogan, daha az şema kullanılan veritabanı yapılarının sağladığı faydaların daha çok ses getirmeye başlamasıyla 2016 yılında NoSQL veritabanının kurumsal IT altyapısının önemli bir parçası olarak ön plana çıkacağını dile getiriyor. Geçmişte Oracle, IBM, Microsoft ve SAP tarafından yaşanılan süreçlere benzer şekilde Gartner’ın Magic Quadrandt for Operational Database Management Systems altyapısının gelişim süreci mevcut tabloda gelinen noktayı en iyi şekilde özetliyor. Karşılaştırma anlamında son sihirli çeyrek (Magic Quadrandt) grafiğinde aralarında MongoDB, DataStax, Redis Labs, MarkLogic ve Amazon Web Services (DynamoDB ile) gibi şirketlerin yer aldığı NoSQL sağlayıcıları yer alıyor.
- Apache Spark büyük verinin fitilini ateşleyecek. Apache Spark, Hadoop ekosisteminin bir parçası olmaktan pek çok şirketin tercihi olan bir büyük veri platformuna dönüşüyor. Kogan, Spark’ın Hadoop’a kıyasla ciddi şekilde arttırılmış veri işleme hızı sağladığına dikkat çekerek Spark’ın projenin fikir babası ve Databricks’in ortak kurucusu olan Matei Zaharia’ya göre en büyük açık kaynak kodlu büyük veri projesi olduğunu vurguluyor. Kogan’a göre Spark büyük verinin “ortak dili” olarak her geçen gün Goldman Sachs gibi şirketlerde her geçen gün daha fazla tercih edilecek.
- Büyük veri büyüyecek: Hadoop kurumsal standartlara eklenecek. Kogan, 2016 yılında Hadoop’un özelliklerinin daha olgun hale geleceğiyle ilgili öngörüsünü şu sözlerle dile getiriyor: “Hadoop’un büyüdüğünün en önemli göstergesi kurumsal IT altyapısının önemli bir parçası haline gelmiş olmasıdır. 2016 yılında güvenlik gibi kurumsal alanı çepeçevre saran sistemlerle ilgili yatırımların çoğaldığını göreceğiz. Apache Sentry detaylı, veri için rol tabanlı yetkilendirme uygulamaları bulunan ve Hadoop kümelerinde saklanan metadata ögeleri sağlayan bir proje olarak müşterilerin kurumsal alanda RDBMS platformlarından beklediği özellikler olarak ön plana çıkmaktadır. Nitekim, bu özellikler gelişen büyük veri teknolojileriyle birlikte gelirken kurumsal adaptasyonla ilgili engelleri ortadan kaldırmaktadır.”
- Büyük veri hızlanıyor: Hadoop’u hızlandıracak seçeneklerin sayısı artacak. Hadoop, 2016 yılında genel anlamda alışılmış veri merkezi özellikleriyle bağlantılı olarak bilinen performans özelliklere kavuşacak. Hadoop’un kurumsal alanda daha fazla yer almasıyla kullanıcılarda geleneksel veri merkezlerindeki performans niteliklerinin sunulması yönünde taleplerin artacağını dile getiren Kogan, son kullanıcı beklentilerinin karşılanması adına Cloudera Impala, AtScale, Actian Vector ve Jethro Data gibi daha önceki kullanıcı dostu sistemlere adaptasyonun genişleyeceğini belirtiyor. Bu süreç ile birlikte “geleneksel” iş zekası konseptleri ile “büyük veri” dünyası arasındaki çizgilerin kaybolacağını söylemek mümkün.
- Verideki büyümenin tüm halini keşfederek son kullanıcıları yeni süreçlere “hazırlayacak” seçenekler. Self-servis veri hazırlama araçları oldukça popüler olmasıyla ön plana çıktığına dikkat çeken Kogan, bu anlamda kurumsal kullanıcılar tarafından oluşturulan Tableau gibi veri keşif araçlarının veri analiz sürelerini kısaltacağını söylüyor. Kogan, kurumsal kullanıcıların analiz için veri hazırlama sürecindeki karmaşıklığı ve harcanan zamanı azaltma yönündeki beklentilerinin farklı veri türleri ve formatlarının yer aldığı büyük veri alanı için son derece önemli olduğunu belirtiyor. Son kullanıcıların büyük verideki hazırlama niteliklerine odaklanan Alteryx, Trifacta, Paxata ve Lavastorm gibi şirketler bulunmakla birlikte uzun zamandır ETL alanında faaliyet gösteren Informatica’nın Rev ürünü ile bu alana önemli yatırımlar yapması üzerinde durulması gereken noktaların başında geliyor.
- MPP Data Warehouse büyümesinde işler kızışıyor… Artık sahnede bulut var. Kogan, veri merkezlerinin “ölümü” ile ilgili söylemlerin kısa süre öncesine kadar fazlaca dillerde dolaştığına ve bu alandaki faaliyetlerin yavaşladığının sır olmadığına dikkat çekiyor. Veri merkezi teknolojisindeki uygulamanın Amazon’un isteğe bağlı olarak sunduğu serviste olduğu gibi önemli bir değişim yaşadığını söylemek mümkün. Fakat bu alanın Amazon dışında BigQuery ile Google’ın, Azure SQL Data Warehouse ile Microsoft’un ve Teradata’nın yer aldığı; Snowflake, Strata + Hadoop World 2015 Startup Showcase gibi yeni başlangıçların dahil olacağı önemli bir rekabet alanı haline dönüşmesi söz konusu görünüyor. Analistler, şirketlerin yüzde 90’ının Hadoop adaptasyonunu sağladığını ve sunulan bulut imkanları sayesinde veri merkezinde Hadoop veri yığını için kullanılan depolama alanı ve kaynak bakımından dinamik olarak ölçeklendirme yapılabileceğini belirtiyor.
- IoT, bulut ve büyük veri bir araya geliyor. Nesnelerin interneti teknolojisinin henüz gelişme sürecinde olmasına karşın bulut altyapısının en önemli teknolojilerinden birisi haline geleceğini söyleyen Kogan, ortaya çıkacak gelişmelerle birlikte petabyte ölçeğinde veri patlamasının yaşanacağının altını çiziyor. Bu nedenle Google, Amazon Web Services ve Microsoft gibi bulut ve veri şirketleri nesnelerin interneti ile ilgili hizmetleri sunarak bulut tabanlarında analiz mühendisleri için en iyi şekilde hazırlama yönündeki altyapıyı sağlayacak adımlar atıyor.
Terada şirketinin veri depolama ve büyük veri analiz uzmanı olan kurumsal sistemler genel müdürü Dan Graham büyük veri konusunda 2016 yılı içerisinde şu gelişmelerin yaşanacağını öngörüyor:
- Organizasyonlar Hadoop konusunda kendilerini resetleyecek. Graham, 2016 yılında şirketlerin daha önceki dağıtım süreçlerinden çıkardığı derslerden hareketle yaklaşımlarını yeniden yapılandıracağını düşünüyor. Hadoop ve Hadoop ile ilgili açık kaynak teknolojilerinin bilgi toplama konusunda daha ileri gittiğini belirten Graham, yanlış yolda olan kullanıcıların özellikle yönetim, veri entegrasyonu, güvenlik ve güvenilirlik anlamında dağıtımlarını yeniden yapılandıracağını söylüyor.
- Algoritmalar ön plana çıkacak. Veri toplama ve hazırlama sürecine yönelik algoritmalar daha fazla ön plana çıkacak. Sonuç olarak CEO’lar ve yatırımcılar ana kurumsal hedeflere ulaşmak için derin analizlere ihtiyaç duyduğu göz ardı edilemeyecek bir gerçek.
- Veri yığınları nihayet bir kaç can alıcı uygulamayı keşfedecek. Veri yığınlarının ham nesnelerin interneti verilerinin hacim ve maliyet olarak en yaygın depolama alanları olacağını söyleyen Graham, IoT M2M veri boyutunun büyüklük nedeniyle dahili hafıza kapasite imkanları dahilinde kullanılamayacağından dolayı düşük depolama maliyetine sahip yeni teknolojiler için geliştiricileri zorladığını belirtiyor.
- Toplanan IoT verileri işlem verilerinden daha hızlı değer kaybedecek. Mali değeri olmadığından dolayı çoğu algılayıcı verisinin saatler, günler veya haftalar içerisinde yerine aynı algılayıcı verisinin gelmesiyle değerini kaybedeceğine dikkat çeken Graham, mimari ve sistemlerin ortaya çıkacak hızlı döngüye uygun ve düşük işletme maliyetine sahip olmak zorunluluğu bulunduğunu söylüyor.
* Bu yazı CIO Dergisi’nin 70. sayısında yayınlanmıştır.