Q&A webinar At the intersection of analysis & AI

We staan als business of functioneel analist liever niet om de hoek te wachten op AI. Momenteel bevinden we ons in het midden van de intersectie tussen analyse en AI. Die oversteek is uitermate interessant en beleven we als een voortdurende ontdekkingstocht. In onze webinar van 29 februari deelden we wat we leerden op vlak van business & functionele analyse + AI. Ons uiteindelijke doel? Leren van elkaar. En laat vragen stellen een uitstekende manier zijn om bij te leren!

 


De vragen aan het einde van de webinar waren talrijk, maar onze tijd was beperkt. Daarom lijsten we hier alle vragen en onze antwoorden op.

VRAGEN

 
  1. Gebruiken jullie vooral ChatGPT?
  2. Voor welke GenAI-toepassingen bots je met gratis versies op limieten en welke zijn jullie criteria om te gaan voor een investering in een pro GenAI-versie?
  3. Hebben jullie al naar Microsoft Copilot Studio kunnen kijken? 
  4. Is RAG outdated met de komst van Gemini Pro (AM context window)? 
  5. Zijn er verschillen in waarvoor je welke LLM best gebruikt? Bv. Google Gemini is beter in … dan ChatGPT
  6. Maakt het uit of je in het Nederlands of het Engels de prompt schrijft voor de reactie?
  7. Wat is het verschil tussen ChatGPT 3.5 en de versie die jullie hebben, versie 4?
  8. Wat is jullie mening over markdown gebruik in prompts?
  9. Hoe zien jullie het verwachtingspatroon bij jullie klanten evolueren mbt het gebruik van AI in jullie deliverables en de doorlooptijd van analyse, i.e. valorisatie van business analyse-diensten? 
  10. Kennen jullie de ‘temperatuur is’ prompt? Ik heb deze nog niet gebruikt maar lijkt mij heel leuk om teksten feitelijk te houden (temperatuur is 1) of zeer creatief (temperatuur 2)?
  11. Wat is de plaats van een functioneel analist in een AI-team als er ook data-analisten zijn? 
  12. Hebben jullie ChatGPTs gemaakt die jullie willen delen?
  13. Hoe kan je testcases laten schrijven door ChatGPT? Wat geef je dan als input?
  14. Hoe kijken jullie aan tegen het enorme energie gebruik van AI?
 
 
 
 

Vraag 1

Gebruiken jullie vooral ChatGPT?

Bert: “Professioneel gebruik ik hoofdzakelijk ChatGPT Plus en soms Copilot Enterprise. Ik kijk heel erg uit naar Claude2 (deze kan je in België voorlopig enkel gebruiken via een VPN).”

Sacha: “Ik gebruik ook vooral ChatGPT. Van alle AI-tools geeft dit naar onze ervaring op dit moment de beste resultaten voor analisten. Aanvullende AI-tools die ik ook regelmatig gebruik: Uizard om wireframes te schetsen en de Assist in Miro om mindmaps te maken en te brainstormen.”

 

 

Vraag 2

Voor welke generatieve AI-toepassingen bots je met gratis versiesop limieten en welke zijn jullie criteria om te gaan voor een investering in een pro generatieve AI-versie*?

* Generatieve AI verwijst naar kunstmatige intelligentiesystemen die in staat zijn om nieuwe data te creëren die lijken op de data waarop ze zijn getraind. Dit kan inhouden het genereren van tekst, afbeeldingen, muziek, spraak of zelfs video’s die nog niet eerder bestonden. ChatGPT is ook een generatieve AI-tool (de G staat voor voor Generative, P voor Pre-trained  & T voor Transformer)

Met gratis versies kan je al veel! Zowel ChatGPT, Copilot als Gemini helpen je maar met de gratis versie merken we veel fouten en/of zwakke antwoorden. Het is dus nuttig tot op zekere hoogte, het ligt bij jezelf om te bepalen waar de limiet ligt en waarvoor je de media wil inzetten. Wij merken dat wanneer je een grote context wil opbouwen, de gratis versies snel aan hun limieten zitten. Daarnaast is het interessant om te kijken naar de frequentie van jouw gebruik, je kan kwaliteitsvoller en langer gebruik maken van de premiumversies. Afhankelijk van het plan dat je koopt, wordt jouw input niet gebruikt voor retraining doeleinden (dat beloven OpenAI en Microsoft). Dit kan een belangrijk aspect zijn als de aard van je conversaties met de chatbot confidentieel is of confidentiële informatie bevat.

Een pro genAI-versie zal hoogstwaarschijnlijk ook extra functionaliteiten aanbieden, zoals de Custom GPTs* binnen de betalende versie van ChatGPT.

 

Custom GPTs zijn varianten van het originele GPT-model, maar dan ingesteld met specifieke instructies, getraind op specifieke gegevens over een bepaald topic of ze hebben extra functionaliteiten om aan unieke behoeften te voldoen. 

  

 

Vraag 3

Hebben jullie al naar Copilot Studio kunnen kijken?

Ja en dat stelde ons teleur, we hadden er meer van verwacht. Het is het oude Power Virtual Agent* van Microsoft in een nieuw jasje, met een paar generatieve AIfeatures. De resultaten die ik er tot nu toe van kreeg waren ondermaats en niet te vergelijken met Copilot zelf.

Power Virtual Agent is een tool om gemakkelijk chatbots te ontwikkelen, zonder dat je hiervoor hoeft te coderen.

 

 

Vraag 4

Is RAG* outdated met de komst van Gemini 1.5 Pro* (1M context window)?

RAG is retrieval augmented generation, een AI framework dat informatie ophaalt uit een externe kennisbank o grote taalmoddellen (LLM’s) te baseren op de meest nauwkeurige, actuele informatie en om gebruikers inzicht te geven in het generatieve proces van LLM’s. 
Uitgebreide uitleg te vinden op
https://www.promptingguide.ai/techniques/rag


* Gemini 1.5 Pro is Google’s geavanceerd AI-model. Een context window is hoeveel informatie een AI-model kan verwerken in één moment. Gemini Pro 1.5’s one million context window betekent dat de tool 1 miljoen tokens kan verwerken of herinneren wanneer die reageert op een user inquery.
Uitgebreide uitleg te vinden op
https://deepmind.google/technologies/gemini/#gemini-1.5

Nee, RAG blijft nodig om dynamische bronnen te kunnen meenemen in je prompt zoals online nieuws of database queries. Het stelt wel een nieuwe norm voor AI-capaciteiten.

 

 

 

Vraag 5

Zijn er verschillen in waarvoor je welke LLM* het best gebruikt? Bv. Google Gemini is beter in … dan ChatGPT. 

* LLM staat voor Large Language Model, een type kunstmatige intelligentie dat is ontworpen om menselijke taal te begrijpen, genereren en ermee te interageren op een niveau dat vaak vergelijkbaar is met dat van een mens. Deze modellen worden getraind op enorme datasets van tekst uit het internet of andere bronnen, waardoor ze in staat zijn tot het uitvoeren van een breed scala aan taalgerelateerde taken. Denk hierbij aan tekstgeneratie, vertaling, samenvatting, en het beantwoorden van vragen. LLM’s zoals GPT (Generative Pre-trained Transformer) van OpenAI, zijn voorbeelden van geavanceerde technologieën die nieuwe mogelijkheden bieden voor automatisering, communicatie en het genereren van content.

 

ChatGPT is tot nu toe beter in alles waarvoor wij het gebruiken dan Google Gemini. Onze persoonlijke ervaring is wel dat Google Gemini iets sneller antwoord geeft en even goed is in beeldherkenning als ChatGPT. Misschien is Gemini beter voor jou als je het Google ecosysteem gebruikt, je krijgt nu al 2TB Google Driveruimte bij een abonnement en de integratie met Googleproducten gaat enkel toenemen.

Dit laatste zien we overigens ook terugkomen bij MicrosoftCopilot wordt geïntegreerd in een hele resem Microsoftproducten, zoals Powerpoint, Excel, Outlook, …

 



Vraag 6

Maakt het uit of je in het Nederlands of Engels een prompt schrijft voor de reactie?

Ja, je krijgt een antwoord in de taal waarin je de vraag stelt. Het model is ook beter beschermd in het Engels. Mensen die proberen ChatGPT te slim af te zijn met adversarial prompting* technieken gebruiken liever een exotische taal omdat de beveiligingen die ingebouwd zijn door OpenAI het beste werken in het Engels.


Adversarial prompting in Large Language Models (LLMs) verwijst naar het proces waarbij bewust ontworpen invoerteksten (prompts) worden gebruikt om het model te misleiden of onverwachte reacties uit te lokken. Dit wordt vaak gedaan om de robuustheid of de veiligheidsmechanismen van het model te testen. Door het model uitdagende of misleidende prompts te geven, kunnen onderzoekers zwakke punten identificeren en verbeteren. Deze techniek helpt bij het verbeteren van de algehele prestaties en betrouwbaarheid van LLMs door hen beter bestand te maken tegen manipulatieve invoer. Het is een belangrijk onderdeel van het ontwikkelingsproces van kunstmatige intelligentie, gericht op het creëren van veiligere en meer betrouwbare systemen. Uitgebreide uitleg 
lees je hier.



Vraag 7

Wat is het verschil tussen ChatGPT 3.5 en de versie die jullie hebben, versie 4?

Wat voor ons het grootste verschil maakt, is de mogelijkheid om te rekenen met ChatGPT 4 (de Code Interpreter feature). Er zijn nog meer verschillen waarvan je een opsomming terugvindt op de website van OpenAI.

 

 

Vraag 8

Wat is jullie mening over markdown* gebruik in prompts?

Markdown is een eenvoudige opmaaktaal die gebruikt wordt om opmaakelementen toe te voegen aan documenten met platte tekst.

Dat werkt heel goed, 
we merken geen specifiek verschil aan de tekst door deze op een andere manier te structureren. We vragen vaak om output in markdown zodat we dit dan kunnen gebruiken in combinatie met tools die met dat formaat overweg kunnen zoals Obsidian bijvoorbeeld.

Een voorbeeld:
Stel aan ChatGPT de volgende vraag: “Ik wil graag een meeting template in markdown formaat om te gebruiken in Obsidian. Geef een antwoord op een manier die mij toelaat om gemakkelijk deze template code te kopiëren en plakken.

 

 

 

Vraag 9

Hoe zien jullie het verwachtingspatroon bij jullie klanten evolueren met betrekking tot het gebruik van AI in jullie deliverables en doorlooptijd van analyse, i.e. valorisatie van business analyse-diensten?

Bert: “De verwachting om met AI te experimenteren is er bij mijn klant, Maar zeker nog niet op die manier dat ik door het gebruik van AI mijn deliverables beter maak of sneller oplever. Dat blijft een persoonlijke keuze en ik kies er wel voor om AI in het voordeel van mijn klant te gebruiken waar ik kan.”


Sacha: ”Momenteel zijn er nog geen concrete verwachtingen uitgesproken door mijn klanten. Mijn vermoeden voor de toekomst is dat er verwachtingen over de snelheid van resultaten zullen uitgesproken worden. Met de integratie van AI in ons analysewerk verwachten klanten een significante vermindering van de doorlooptijd met betrekking tot de analyse en evenzeer de implementatie van de projecten. Ze anticiperen op snelle valorisatie en zichtbare resultaten in een korter tijdsbestek, wat de druk verhoogt op de tijdigheid en effectiviteit van onze analyses.”

 

 

Vraag 10

Kennen jullie de ‘temperatuur is’-prompt? Ik heb deze nog niet gebruikt maar het lijkt mij heel leuk om teksten feitelijk te houden (temperatuur: 1) of zeer creatief (temperatuur: 2).

Wij hebben zelf geen ervaring met de ‘temperatuur is-prompt . Dit komt neer op het volgende: de ‘temperatuur’ van een Large Language Model (LLM), zoals GPT, is een parameter die de willekeurigheid of creativiteit in de gegenereerde antwoorden regelt. Een lage temperatuur leidt tot meer voorspelbare en conservatieve antwoorden, terwijl een hogere temperatuur de variëteit en creativiteit in de output verhoogt.

We waren getriggerd en hebben dit zelf uitgetest.
De
 ‘creativity temperature’ in de prompt moet tussen 0 en 1 liggen, waar 0.7 of hoger heel creatief is. Bijvoorbeeld: “Kan je een gedicht schrijven van 10 zinnen over een webinar met AIcreativiteit van temperatuur 0.8, aub” (een groot verschil met temperatuur van 0.2).

 

 

Vraag 11

Wat is de plaats van een functioneel analist in een AI-team als er ook data-analisten zijn?

We zien de rol van een functioneel analist evolueren naar een rol die nog meer dan vandaag focus legt op menselijke interactie met een systeem en integraties met andere systemen. Wie weet spreken we binnen een aantal jaar over “interface analisten”, maar dat is een wilde speculatie.

 

 

Vraag 12

Hebben jullie GPTs gemaakt die jullie willen delen?

We hebben GPTs aangemaakt maar niet voor professioneel gebruik, en bijgevolg wensen we die niet te delen.

 

 

Vraag 13

Hoe kan je testcases laten schrijven door ChatGPT? Wat geef je dan als input?

Als je ze hebt, dan kan je een aantal testcases die geschreven zijn door jezelf als mens ingeven bij wijze van voorbeeld. Daarna vraag je om testcases te beschrijven in dezelfde stijl. We raden aan de soort variatie die je verwacht te beschrijven. Als je meer wil experimenteren dan kan je uitleggen wat je wil testen en vragen om daar één of meerdere testcases voor te schrijven en zo verder te werken in de context van dezelfde chat. Misschien heb je daar al iets van liggen in je functionele analyse materiaal?

 

 

Vraag 14

Hoe kijken jullie aan tegen het enorme energieverbruik van AI?

Momenteel zijn er bedrijven en onderzoekers die werken aan de optimalisatie van algoritmen, efficiënter gebruik van hardware, en ontwikkeling van energiezuinigere chips. Op deze manier hopen we dat het energieverbruik van AI zal verminderen naar de toekomst toe.
 
 
 
 
 

Nog vragen? Feedback? Get in touch!

Of volg ons via Linkedin om op de hoogte te blijven van upcoming webinars.

Our services

Uw ambitie? Een versnelling hoger schakelen. The Business Analysts geeft u een flinke duw in de rug.