Taalmodellen vanaf nul opbouwen: van tokens tot lokale taalmodellen
Begrijp grote taalmodellen, van tokens tot transformers, kwantisatie en lokale uitvoering, uitgelegd in heldere, praktische taal.
Begrijp grote taalmodellen, van tokens tot transformers, kwantisatie en lokale uitvoering, uitgelegd in heldere, praktische taal.
De Maia 200 is Microsofts nieuwe, in eigen huis ontwikkelde AI-chip voor snelle en efficiënte inferentie in Azure, die met meer dan 10 PFLOPS aan FP4-rekenkracht concurreert met Trainium en TPU.
Leer stap voor stap hoe reinforcement learning werkt, de algoritmen ervan, de toepassingen, de risico's en hoe je RL in echte projecten kunt implementeren.
Ontdek hoe het instorten van AI-modellen de ontwikkeling van generatieve ontwerptools beïnvloedt, waarom synthetische data riskant zijn en welke strategieën langdurige achteruitgang kunnen voorkomen.
Ontdek hoe je Python kunt gebruiken voor AI: bibliotheken, voorbeelden, tools en echte toepassingen worden helder en diepgaand uitgelegd.
Ontdek waarom hallucinaties door AI ontstaan, bekijk echte voorbeelden, de risico's en de beste huidige technieken om ze te detecteren en te verminderen.
Ontdek de belangrijkste open-source en bedrijfsplatformen voor het evalueren, monitoren en beheren van moderne taalmodellen en LLM-agents.
Leer hoe je krachtige taalmodellen kunt hosten met een beperkt budget, door API's, cloud-GPU's en lokale configuraties te vergelijken om kosten te besparen zonder prestatieverlies.
Google versterkt de PyTorch-ondersteuning op TPU's met TorchTPU en een samenwerking met Meta, in een poging de dominantie van Nvidia op de markt voor AI-computing te ondermijnen.