Episodes

  • AI inzetten in je organisatie: succesfactoren en uitdagingen
    May 22 2024

    Send us a Text Message.

    In deze podcast bespreken Hildo van Es, solution architect en medeoprichter van Great Minds, en Robin Smits, data scientist en oprichter van LUMI ML Consulting, de uitdagingen en kansen bij het inzetten van AI in bedrijven. Ze leggen uit hoe AI een steeds belangrijkere rol speelt in bedrijfsprocessen en hoe het nieuwe architectuurvraagstukken met zich meebrengt. En dat niet alleen. Ook bespreken ze de factoren die een rol spelen bij het succesvol inzetten van AI in de organisatie

    Show more Show less
    29 mins
  • Uitdagingen en strategieën tegen bias in AI
    May 7 2024

    Send us a Text Message.

    Samen met Robin Smits, data scientist en founder van LUMI ML Consulting, duikt Hildo van Es in de complexiteit van bias in AI modellen. Ze zien dat onze technologische modellen onze eigen imperfecties reflecteren en ook tot vervelende vooroordelen kunnen komen. In een discussie bespreken ze het mechanisme van datavervuiling en het ongewenste effect op het gedrag van AI, waarbij ze het belang van ethische overwegingen onderstrepen en nieuwe wetgeving als de EU AI Act en initiatieven van Big Tech de revue laten passeren.

    Luister mee naar de discussie over deze grote issues in AI en over de strategieën die je kunt toepassen om het risico op bias te verkleinen.

    Show more Show less
    21 mins
  • Waarom evalueren we (Open Source) LLM’s?
    Apr 23 2024

    Send us a Text Message.

    Deze podcast duikt diep in de uitdagingen en benodigdheden bij het evalueren van open source Large Language Models (LLMs). Vanuit hun expertises als architect en data scientist bespreken Hildo van Es en Robin Smits specifieke incidenten om het cruciale belang van grondige evaluatie van LLM's te onderstrepen. Denk aan zoals de misstappen van DPD’s chatbot en Cortana’s ontwikkeling van ongewenste ideeën.

    Van Es en Smits wijzen op de noodzaak van een brede reeks tests, inclusief ethische en bias-evaluaties, die afwijken van traditionele softwaretests. Verder wordt het gebruik van Hugging Face’s leaderboard en benchmarks aangehaald als essentiële hulpmiddelen voor het beoordelen van modelprestaties.

    De discussie belicht ook het initiatief voor Nederlandstalige evaluaties en de implicaties van het testen van LLM's met bedrijfsspecifieke datasets, waarbij de complexiteit en de inherente risico’s van AI-modellen niet mogen worden onderschat.

    Show more Show less
    24 mins