Büyük dil modellerinin (LLMS) eğitiminden sonra, AI'nın kalıpları tespit edebileceği ve bir insan tarafından yapılanlara benzer bir akıl yürütme yapabileceği bir aşamadır.
Nvidia gibi, patlaması da kurulduğu anda başlamadı, ancak AI bombasının patladığı an 2022'nin sonunda Chatgpt'in görünmesine kadar beklemek zorunda kaldı.
Forbes'a, özellikle 2019'da şirketin parasız kaldıktan bir ay sonra olduğu için “Groq birçok kez ölmek üzereydi” dedi. “Groq'a belki biraz erken başladık.”
Ancak, yakında en önemli genişleme firmalarından biri olarak yer alıyordu. Geçen yıl Ağustos ayında, 2.8 milyar dolarlık bir değerlendirmeye ulaşan 640 milyon dolar aldı ve NVIDIA'nın AI dünyasında tek seçenek olmadığını gösterdi.
Bu yılın Şubat ayında, Suudi Arabistan Krallığı, çıkarım altyapısının genişlemesi için 1,5 milyar dolarlık bir yatırım duyurdu, geçen Aralık ayında sadece sekiz gün içinde bir küme kurduğu o ülkede başladığı bir şey.
LPU, GROQ'nun farklılaşma teknolojisi
NVIDIA, AI sektörünün önde gelen şirketi olmasına rağmen, GROQ, özellikle veri çıkarımında tasarlanmış bir teknoloji olan Dil İşleme Birimi (LPU) aracılığıyla bir fark yaratmak istiyor, bu da onu rekabet açısından daha çekici bir firma yapıyor.
Yıllık ilerleyen AI etkinliğinde AMD genel müdürü Lisa HER tarafından paylaşılan verilere göre, AI'nın çıkarımı şu anda teknoloji eğitimine odaklanan endüstri ile aynı alaka düzeyine sahiptir.
Bununla birlikte, gelecek yıldan itibaren oranın çıkarım açısından daha fazla olması ve 2028 civarında değeri 500.000 milyon dolar olan bir endüstri haline gelmesi bekleniyor.
Bu artışın nedeni, AI modellerinin evriminin, en hızlı, kesin ve kaliteli yanıtları vermek için gerekli jeton sayısında bir artış anlamına gelmesidir, yani şirketler süreci geliştiriciler için çok daha optimal ve uygun fiyatlı hale getirmek için yeni bir altyapı üretir.
CNBC ile yapılan bir röportaj sırasında Ross, NVIDIA yongalarının bugün sadece çok az tedarikçisi olan yüksek bant genişliği gibi pahalı bileşenler kullanacağını ve LPU'ları bu teknolojiyi kullanmadığını söyledi.
Buna ek olarak, yapısı hakkında birkaç önemli nokta, tedarik zincirinin esas olarak Kuzey Amerika'da olması ve veri merkezlerini çok hızlı bir şekilde uygulama yeteneğine sahip olmasıdır.
Groq Avrupa'da genişliyor
Bu hız, bu ay, şirketin ilk veri merkezini, özellikle sadece dört haftaya mal olan bir süreç olan Helsinki'de kurduğu için gösterildi.
“Bu haftanın sonunda trafiğe katılmaya başlamayı umuyoruz. Hızla inşa ediliyor, bu yüzden pazarın geri kalanında görülen için çok farklı bir teklif,” dedi.
Nvidia gibi, patlaması da kurulduğu anda başlamadı, ancak AI bombasının patladığı an 2022'nin sonunda Chatgpt'in görünmesine kadar beklemek zorunda kaldı.
Forbes'a, özellikle 2019'da şirketin parasız kaldıktan bir ay sonra olduğu için “Groq birçok kez ölmek üzereydi” dedi. “Groq'a belki biraz erken başladık.”
Ancak, yakında en önemli genişleme firmalarından biri olarak yer alıyordu. Geçen yıl Ağustos ayında, 2.8 milyar dolarlık bir değerlendirmeye ulaşan 640 milyon dolar aldı ve NVIDIA'nın AI dünyasında tek seçenek olmadığını gösterdi.
Bu yılın Şubat ayında, Suudi Arabistan Krallığı, çıkarım altyapısının genişlemesi için 1,5 milyar dolarlık bir yatırım duyurdu, geçen Aralık ayında sadece sekiz gün içinde bir küme kurduğu o ülkede başladığı bir şey.
LPU, GROQ'nun farklılaşma teknolojisi
NVIDIA, AI sektörünün önde gelen şirketi olmasına rağmen, GROQ, özellikle veri çıkarımında tasarlanmış bir teknoloji olan Dil İşleme Birimi (LPU) aracılığıyla bir fark yaratmak istiyor, bu da onu rekabet açısından daha çekici bir firma yapıyor.
Yıllık ilerleyen AI etkinliğinde AMD genel müdürü Lisa HER tarafından paylaşılan verilere göre, AI'nın çıkarımı şu anda teknoloji eğitimine odaklanan endüstri ile aynı alaka düzeyine sahiptir.
Bununla birlikte, gelecek yıldan itibaren oranın çıkarım açısından daha fazla olması ve 2028 civarında değeri 500.000 milyon dolar olan bir endüstri haline gelmesi bekleniyor.
Bu artışın nedeni, AI modellerinin evriminin, en hızlı, kesin ve kaliteli yanıtları vermek için gerekli jeton sayısında bir artış anlamına gelmesidir, yani şirketler süreci geliştiriciler için çok daha optimal ve uygun fiyatlı hale getirmek için yeni bir altyapı üretir.
CNBC ile yapılan bir röportaj sırasında Ross, NVIDIA yongalarının bugün sadece çok az tedarikçisi olan yüksek bant genişliği gibi pahalı bileşenler kullanacağını ve LPU'ları bu teknolojiyi kullanmadığını söyledi.
Buna ek olarak, yapısı hakkında birkaç önemli nokta, tedarik zincirinin esas olarak Kuzey Amerika'da olması ve veri merkezlerini çok hızlı bir şekilde uygulama yeteneğine sahip olmasıdır.
Groq Avrupa'da genişliyor
Bu hız, bu ay, şirketin ilk veri merkezini, özellikle sadece dört haftaya mal olan bir süreç olan Helsinki'de kurduğu için gösterildi.
“Bu haftanın sonunda trafiğe katılmaya başlamayı umuyoruz. Hızla inşa ediliyor, bu yüzden pazarın geri kalanında görülen için çok farklı bir teklif,” dedi.