Fitness Seller

artificial intelligence

Blijkbaar doe die dat dus adv je locatie. Ik had vanuit het woonkamerraam bij mij vader een foto gemaakt en hij had de plaats goed, maar kon de straat niet specificeren. Toen ik vroeg waarom hij de plaats wel goed had gaf hij aan dat het een gok was op basis van de huidige locatie in mijn gebruikersprofiel. :D
Misschien dat er over 100 jaar iets zinnigs uit de koker van AI komt?
 
1746713151048.png
 
Eén keer trek je de conclusie…
 
Eén keer trek je de conclusie…
Opzich heeft het wel voordelen aangezien je je AI-Vriend zelf kan instellen qua karakter, persoonlijkheid, humor, afkomst.

Jij zou bijv. als AI-vriend een 25 jarige Adolf Hitler kunnen nemen die wel was aangenomen in de kunstacademie en net sinds kort is afgestudeerd. Je zou AI zelfs schilderijen en tekeningen in zijn stijl kunnen laten maken terwijl je filosofeert met hem wat hij mogelijk allemaal zou hebben gedaan als hij niet was aangenomen tot de kunstacadamie.
 
Schei, man. Dwaas! Met je hoofd…
 
Veredelde zoekmachine… 🤷🏻‍♂️
 
  • Topic Starter Topic Starter
  • #832
Ik mag CAPSLOCK2000 wel.
 
  • Topic Starter Topic Starter
  • #833
Ik vroeg me af wat hoe de AI-hallucinaties zich verhouden tot menselijke fouten wat betreft het vergaren van informatie.

Vergelijk de betrouwbaarheid van informatie die wordt verkregen via de volgende vier scenario’s: 1. Een gebruiker die blindelings de eerste hit in Google Search leest en gelooft. 2. Een gebruiker die een korte, weinig specifieke prompt invoert bij een AI-chatbot zoals Perplexity. 3. Een gebruiker die kritisch en actief meerdere bronnen vergelijkt via een zoekmachine. 4. Een gebruiker die kritisch omgaat met AI door bij twijfel de prompt te verfijnen, vervolgvragen te stellen of het antwoord te laten onderbouwen door de AI. Geef een diepgaande analyse van de manieren waarop fouten en onbetrouwbaarheid kunnen ontstaan in elk scenario. • Bespreek de aard van AI-hallucinaties: hoe, waarom en wanneer ontstaan deze, en hoe verhouden ze zich tot menselijke fouten zoals cognitieve bias, overschatting van eigen kennis, en foutieve interpretatie van informatie? • Vergelijk hoe kritisch zoekgedrag (zoals het raadplegen van meerdere bronnen) en kritisch gebruik van AI (zoals het actief bevragen en verfijnen van prompts) de kans op fouten en misinformatie verkleinen ten opzichte van passief, ongefilterd gebruik. • Beoordeel statistisch gezien welke methode gemiddeld tot betrouwbaardere informatie leidt, en onder welke omstandigheden. • Ga in op de schaalbaarheid van fouten (AI-hallucinaties kunnen miljoenen tegelijk treffen, menselijke fouten zijn vaak individueel maar soms systemisch), de detecteerbaarheid van fouten, en de mogelijkheden tot mitigatie. • Geef voor elk scenario kwantitatieve foutpercentages uit recente studies, zodat deze direct vergeleken kunnen worden met bekende AI-hallucinatiecijfers (bijv. 33%-79% voor OpenAI’s o3/o4-mini , 94% voor Grok-3 , 15% voor GPT-4.5 ). • Betrek hierbij ook statistieken over menselijke fouten bij zoekgedrag (bijv. 78.1% fouten in zoekstrategieën , 49.6% ontbrekende morfologische variaties ). • Gebruik tabellen om de foutpercentages naast elkaar te zetten en te laten zien hoe kritisch gedrag de foutkans verlaagt. • Geef tot slot praktische adviezen voor gebruikers die betrouwbare informatie willen vinden, rekening houdend met de beperkingen van zowel zoekmachines als AI-chatbots. Gebruik concrete voorbeelden, vergelijkende tabellen, en verwijs waar mogelijk naar recente onderzoeken of praktijkvoorbeelden (zoals het AI-overzicht in Google Search, de hallucinatiepercentages van recente AI-modellen, en de rol van prompt engineering bij AI)


Conclusie
Deze analyse toont aan dat de betrouwbaarheid van verkregen informatie sterk afhangt van de gehanteerde methode. Zowel AI-systemen als menselijke zoekstrategieën zijn vatbaar voor significante fouten, maar deze kunnen worden gemitigeerd door kritisch gebruik.
Scenario 3 (kritisch vergelijken van meerdere bronnen) en Scenario 4 (kritische interactie met AI) bieden de hoogste betrouwbaarheid, vooral wanneer gecombineerd. AI-hallucinaties, die oplopen tot 48% voor sommige modellen, kunnen worden verminderd door technieken zoals Chain-of-Verification, terwijl menselijke fouten in zoekstrategieën (tot 78.1%) kunnen worden aangepakt door systematische verbetering van zoekvaardigheden.
De ideale strategie voor betrouwbare informatieverkrijging combineert de sterke punten van beide benaderingen: de efficiëntie en brede kennisbasis van AI-systemen met de kritische evaluatie en contextuele begrip van menselijke informatieverwerking. Bij kritisch gebruik vullen AI en traditionele zoekmethoden elkaar aan, wat leidt tot substantieel betrouwbaardere informatie dan bij gebruik van slechts één methode.
 
Dat hallucineren is best wel irritant. Als je bijvoorbeeld vraagt of een bepaald dieet gezond of ongezond is komt het met een verhaal dat het ongezond is en als je dan doorvraagt met eigen kennis over het dieet blijkt het toch gezond te zijn.

Dus voor degene die het echt als vraagbaak gebruikt met onderwerpen waar hij niks van weet krijgt vaak slechte informatie.
 
Podcasters kan het ook wel vervangen. :wave:
 
Denk dat ik nog steeds boeken prefereer voor informatie over bepaalde onderwerpen. 🤔
 
Terug
Naar boven