27-03-2024

Snowflake en Mistral AI bieden Large Language Models via Snowflake Cortex

Deel dit bericht

Snowflake en Mistral AI hebben een samenwerking aangekondigd om de krachtigste Language Models van Mistral AI rechtstreeks beschikbaar te maken voor Snowflake-klanten in de Data Cloud. Door middel van deze meerjarige samenwerking leveren Mistral AI en Snowflake de tools die enterprises nodig hebben om naadloos gebruik te maken van de kracht van Large Language models, met behoud van veiligheid, privacy en governance over data. Daarnaast omvat de samenwerking ook een investering in Mistral's Series A van Snowflake Ventures.

Door de Mistral AI-samenwerking krijgen Snowflake-klanten toegang tot Mistral AI's nieuwste en krachtigste LLM, Mistral Large, met benchmarks die het tot een van 's werelds best presterende modellen maakt. Daarnaast heeft Mistral AI's nieuwe flagship-model unieke redeneercapaciteiten, is het bedreven in code en wiskunde, en spreekt het model vloeiend vijf talen - Frans, Engels, Duits, Spaans en Italiaans - in lijn met Mistral AI's inzet om culturele en linguïstische specificiteiten van generatieve AI-technologie te promoten. Het kan ook honderden pagina's aan documenten verwerken in één gesprek. Daarnaast krijgen Snowflake-klanten toegang tot Mixtral 8x7B, Mistral AI's open source model dat OpenAI's GPT3.5 overtreft in snelheid en kwaliteit op de meeste benchmarks, naast Mistral 7B, Mistral AI's eerste foundation model dat is geoptimaliseerd voor lage latency, weinig geheugen nodig heeft en een hoge productie voor zijn grootte. De Mistral AI-modellen zijn nu beschikbaar voor klanten in public preview als onderdeel van Snowflake Cortex, Snowflake's volledig beheerde LLM- en vectorzoekservice die organisaties in staat stelt analyses te versnellen en snel AI-apps te bouwen op een veilige manier met hun bedrijfsdata.

Sentimentanalyse
Snowflake Cortex kondigde voor het eerst support aan voor toonaangevende LLM's voor gespecialiseerde taken zoals sentimentanalyse, vertaling en samenvatten, naast foundation LLM's - te beginnen met Meta AI's Llama 2 model - voor use cases zoals retrieval-augmented generation (RAG) op Snowday 2023. Snowflake blijft investeren op het gebied van generatieve AI door samen te werken met Mistral AI en de suite van fundamentele LLM's in Snowflake Cortex verder te ontwikkelen, zodat organisaties over een eenvoudig pad beschikken om state-of-the-art generatieve AI naar elk onderdeel van hun bedrijf te brengen. Om een serverloze ervaring te leveren die AI toegankelijk maakt voor een brede groep gebruikers, elimineert Snowflake Cortex de langdurige aanschaf en het complexe beheer van GPU-infrastructuur door samen te werken met NVIDIA om een full stack versneld rekenplatform te leveren dat onder andere gebruikmaakt van NVIDIA Triton Inference Server.

Van concept naar full-stack AI-apps
Met Snowflake Cortex LLM Functions nu in public preview, kunnen Snowflake gebruikers AI gebruiken met hun enterprisedata om een breed scala aan use cases te ondersteunen. Met behulp van gespecialiseerde functies kan elke gebruiker met SQL-vaardigheden kleinere LLM's gebruiken om specifieke taken zoals sentimentanalyse, vertaling en samenvatting binnen enkele seconden kosteneffectief uit te voeren. Voor complexere use cases kunnen Python-ontwikkelaars binnen enkele minuten van concept naar full-stack AI-apps gaan, zoals chatbots, door de kracht van foundation LLM's - inclusief Mistral AI's LLM's in Snowflake Cortex - te combineren met chat-elementen, binnenkort in public preview, binnen Streamlit in Snowflake. Deze gestroomlijnde ervaring geldt ook voor RAG met de geïntegreerde vectorfuncties en vectordatatypen van Snowflake, beiden binnenkort in public preview, waarbij ervoor wordt gezorgd dat de data nooit de beveiligings- en governanceperimeter van Snowflake verlaten.

Partners