Vultr, leverancier van een private cloud computing platform, kondigt een aanzienlijke uitbreiding van zijn Vultr Serverless Inference platform aan. Dit platform biedt bedrijven de infrastructuur die nodig is voor agentic AI. De uitbreiding, die voortborduurt op de introductie eerder dit jaar, stelt bedrijven in staat modellen automatisch te schalen en turn-key Retrieval Augmented Generation (RAG) te gebruiken om modelinferentie uit te voeren in de 32 wereldwijde datacenterlocaties van Vultr.
Er wordt voorspeld dat agentic AI de volgende grote stap binnen AI zal zijn, met AI-agentplatforms als dominante marktleiders. Maar om het potentieel van AI-agents volledig te benutten, hebben organisaties flexibele, schaalbare, high-performance computerkracht nodig in een edge-datacenter - een datacenter dat zich dicht bij de eindgebruiker bevindt. Vultr Serverless Inference is het enige alternatief voor hyperscalers dat de mogelijkheid biedt om eigen modellen te schalen met eigen databronnen zonder lock-in, of afbreuk te doen aan IP, beveiliging, privacy of datasoevereiniteit.
Door de inzet van geavanceerde serverloze technologie, draaiend op NVIDIA en AMD GPU's, schaalt Vultr automatisch AI-modelinferentie in een edge-datacenter. AI-modellen draaien automatisch op de best geoptimaliseerde, beschikbare NVIDIA- of AMD-hardware. Zo worden topprestaties gegarandeerd zonder het gedoe van handmatige configuratie. Bovendien geeft Vultr bedrijven vrijheid, keuze en flexibiliteit door gebruik van populaire open source modellen, waaronder Llama 3, beschikbaar te stellen. Vultr maakt het ook mogelijk dat bedrijven hun eigen model mee brengen en hun eigen speciale inferentieclusters kunnen in zetten in een van Vultr’s wereldwijde datacenters.
Turnkey RAG: veilig gebruikmaken van eigen data voor AI-output op maat
Turnkey RAG van Vultr slaat eigen data veilig op als embeddings in een vectordatabase, waardoor grote taalmodellen (LLM's) conclusies kunnen trekken op basis van deze data. Het resultaat is nauwkeurige AI-output op maat die volledig door het bedrijf wordt gecontroleerd, waarbij gevoelige informatie veilig blijft en voldoet aan de regelgeving voor data opslag. Voor organisaties die agentic AI willen implementeren, leidt dit tot AI-systemen die realtime nauwkeurige, contextueel relevante antwoorden kunnen geven.
Door de integratie van informatieophaling met generatieve modellen stelt Turnkey RAG AI-agents in staat om toegang te krijgen tot actuele informatie en deze te gebruiken, waardoor hun besluitvorming en reactiesnelheid aanzienlijk worden verbeterd. Turnkey RAG elimineert ook de noodzaak om gegevens naar openbaar getrainde modellen te sturen, waardoor het risico op misbruik van data afneemt.
OpenAI-compatibele API: Kostenefficiëntie en schaalbaarheid verbeteren
Met OpenAI-compatibele API van Vultr kunnen bedrijven AI integreren in hun activiteiten tegen aanzienlijk lagere kosten per token dan bij OpenAI, waardoor het een aantrekkelijke keuze is voor organisaties die agentic AI willen implementeren. Voor CIO's die IT-budgetten beheren is deze kostenefficiëntie bijzonder aantrekkelijk, vooral als je kijkt naar het uitgebreide potentieel voor AI-implementatie op verschillende afdelingen. Dankzij deze functie kunnen CIO's hun uitgaven optimaliseren en tegelijkertijd gebruikmaken van de infrastructuur van Vultr om AI-toepassingen wereldwijd te schalen. Hierdoor zijn er geen grote kapitaalinvesteringen in hardware of doorlopend serveronderhoud nodig.
Bovendien versnelt de OpenAI-compatibele API de digitale transformatie door teams in staat te stellen AI naadloos op te nemen in bestaande systemen. Deze integratie zorgt voor snellere ontwikkelingscycli, efficiënter experimenteren en een snellere time-to-market voor AI-gedreven functies - en dat allemaal zonder hoge omscholings- en integratiekosten die meestal gepaard gaan met de implementatie van nieuwe technologieën. Hierdoor kunnen bedrijven het volledige potentieel van agentic AI effectiever benutten en innovatie en operationele efficiëntie stimuleren zonder hun middelen te overbelasten.
11 t/m 13 november 2024Praktische driedaagse workshop met internationaal gerenommeerde trainer Lawrence Corr over het modelleren Datawarehouse / BI systemen op basis van dimensioneel modelleren. De workshop wordt ondersteund met vele oefeningen en pr...
18 t/m 20 november 2024Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare ...
26 en 27 november 2024 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoo...
De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Management Professional (CDMP) certificatie biedt een traject voor het inleidende niveau (Associate) tot en met hogere niveaus van...
3 april 2025 (halve dag)Praktische workshop met Alec Sharp [Halve dag] Deze workshop door Alec Sharp introduceert conceptmodellering vanuit een non-technisch perspectief. Alec geeft tips en richtlijnen voor de analist, en verkent datamodellering op c...
10, 11 en 14 april 2025Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikba...
15 april 2025 Praktische workshop Datavisualisatie - Dashboards en Data Storytelling. Hoe gaat u van data naar inzicht? En hoe gaat u om met grote hoeveelheden data, de noodzaak van storytelling en data science? Lex Pierik behandelt de stromingen in ...
Alleen als In-house beschikbaar Het Logical Data Warehouse, een door Gartner geïntroduceerde architectuur, is gebaseerd op een ontkoppeling van rapportage en analyse enerzijds en gegevensbronnen anderzijds. Een flexibelere architectuur waarbij snell...
Deel dit bericht