Snowflake heeft aangekondigd dat het de Llama 3.1-collectie van meertalige open source Large Language Models zal hosten in Snowflake Cortex AI voor enterprises om eenvoudig krachtige AI-toepassingen op schaal te benutten en bouwen. Door samen te werken met Meta biedt Snowflake klanten eenvoudige en vertrouwde manieren om toegang te krijgen tot de nieuwste modellen van Meta, deze te verfijnen en in te zetten in de AI Data Cloud. Dit met een allesomvattende benadering van vertrouwen en veiligheid ingebouwd op het basisniveau.
Het aanbod omvat Meta's grootste en krachtigste open source LLM, Llama 3.1 405B, waarbij Snowflake de inferentiesysteem-stack ontwikkelt en open source maakt om real-time, high-throughput inferentie mogelijk te maken en krachtige applicaties voor het verwerken en genereren van natuurlijke taal verder te democratiseren. Het toonaangevende AI-onderzoeksteam van Snowflake heeft Llama 3.1 405B geoptimaliseerd voor zowel inferentie als fine-tuning. Het ondersteunt vanaf dag één een enorm 128K contextvenster en maakt real-time inferentie mogelijk met tot 3x lagere end-to-end latentie en 1,4x hogere doorvoer dan bij bestaande open source-oplossingen. Bovendien is fine-tuning op het massieve model mogelijk met slechts één GPU-node - waardoor kosten en complexiteit voor ontwikkelaars en gebruikers worden geëlimineerd - en dat alles binnen Cortex AI.
Geheugenefficiënte open source-inferentie en fine-tuning
Het AI-onderzoeksteam van Snowflake blijft de grenzen van open source-innovaties verleggen door middel van regelmatige bijdragen aan de AI-gemeenschap en transparantie over hoe het innovatieve LLM-technologieën bouwt. Tegelijk met de lancering van Llama 3.1 405B is het AI-onderzoeksteam van Snowflake nu bezig met het open source maken van zijn Massive LLM Inference and Fine-Tuning System Optimization Stack in samenwerking met DeepSpeed, Hugging Face, vLLM en de bredere AI-gemeenschap. Deze doorbraak creëert een nieuwe state-of-the-art voor open source-inferentie- en afstemsystemen voor modellen met meerdere honderden miljarden parameters.
De enorme schaal van het model en de geheugenvereisten vormen aanzienlijke uitdagingen voor gebruikers die streven naar inferentie met lage latentie voor realtime gebruikssituaties, een hoge verwerkingscapaciteit voor kosteneffectiviteit en ondersteuning van lange contexten voor verschillende generatieve AI-use cases op enterprise-niveau. De geheugenvereisten voor het opslaan van model- en activeringstoestanden maken fine-tuning ook extreem uitdagend, waarbij de grote GPU-clusters die nodig zijn om de modeltoestanden in te passen voor training vaak onbereikbaar zijn voor data scientists.
Snowflake's Massive LLM Inference and Fine-Tuning System Optimization Stack pakt deze uitdagingen aan. Door gebruik te maken van geavanceerde parallelliteitstechnieken en geheugenoptimalisaties maakt Snowflake snelle en efficiënte AI-verwerking mogelijk, zonder complexe en dure infrastructuur. Voor Llama 3.1 405B levert Snowflake's systeemstack realtime, hoge doorvoerprestaties op slechts één GPU-node en ondersteunt het enorme 128k contextvensters in multi-node setups. Deze flexibiliteit geldt zowel voor next-generation als legacy hardware, waardoor het toegankelijk is voor een breder scala aan bedrijven. Bovendien kunnen datawetenschappers Llama 3.1 405B verfijnen met gemengde precisietechnieken op minder GPU's, waardoor er geen grote GPU-clusters nodig zijn. Als gevolg hiervan kunnen organisaties krachtige generatieve AI-toepassingen op bedrijfsniveau eenvoudig, efficiënt en veilig aanpassen en implementeren.
Het AI-onderzoeksteam van Snowflake heeft ook een geoptimaliseerde infrastructuur ontwikkeld voor fine-tuninginclusief modeldistillatie, veiligheidsrails, retrieval augmented generation (RAG) en synthetische datageneratie, zodat bedrijven eenvoudig aan de slag kunnen met deze use cases binnen Cortex AI.
Betrouwbare en verantwoorde AI
AI-veiligheid is van het grootste belang voor Snowflake en haar klanten. Als gevolg hiervan maakt Snowflake Snowflake Cortex Guard algemeen beschikbaar om verdere bescherming te bieden tegen schadelijke inhoud voor elke LLM-applicatie of -asset die is gebouwd in Cortex AI - met behulp van de nieuwste modellen van Meta of de LLM's die beschikbaar zijn van andere toonaangevende leveranciers, waaronder AI21 Labs, Google, Mistral AI, Reka en Snowflake zelf. Cortex Guard maakt gebruik van Meta's Llama Guard 2, waarmee vertrouwde AI verder wordt ontsloten voor bedrijven, zodat ze er zeker van kunnen zijn dat de modellen die ze gebruiken veilig zijn.
2 april 2025 Schrijf in voor al weer de twaalfde editie van ons jaarlijkse congres met wederom een ijzersterke sprekers line-up. Op deze editie behandelen wij belangrijke thema’s als Moderne (Native-Cloud) Data Architecturen, Datawarehouse Desi...
3 april 2025 (halve dag)Praktische workshop met Alec Sharp [Halve dag] Deze workshop door Alec Sharp introduceert conceptmodellering vanuit een non-technisch perspectief. Alec geeft tips en richtlijnen voor de analist, en verkent datamodellering op c...
3 april 2025 Deze workshop met Winfried Etzel behandelt de centrale pijler van Data Mesh: Federated Data Governance. Hoe zorg je voor een goede balans tussen autonomie en centrale regie? Praktische workshop van een halve dag op 3 april in Utre...
3 april 2025 In de snel veranderende wereld van vandaag is het effectief benutten en beheren van gegevens een kritieke succesfactor voor organisaties. Deze cursus biedt een fundamenteel begrip van Master Data Management (MDM) en de centrale ro...
7 t/m 9 april 2025Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare richt...
10, 11 en 14 april 2025Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikba...
15 april 2025 Praktische workshop Datavisualisatie - Dashboards en Data Storytelling. Hoe gaat u van data naar inzicht? En hoe gaat u om met grote hoeveelheden data, de noodzaak van storytelling en data science? Lex Pierik behandelt de stromingen in ...
14 en 15 mei 2025 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoord op...
Deel dit bericht