AndroidHealthClinic

artificial intelligence

AI-modellen kunnen complexe spectra (bijv. van GC-MS of ICP-analyses) ontleden en achtergrondruis automatisch filteren. Dit leidt tot nauwkeurigere identificatie van pieken en vermindert valse positieven. Dat is nu in de praktijk veel lastiger met de star opgezette parameters die we nu hanteren binnen de verschillende methodes.

Verder heb ik al 20 jaar ervaring met sommige monsters en hun gangbare spectra. Ondanks dat de software die de data interpreteert flink wat progressie heeft geboekt in die 20 jaar maak ik nog regelmatig stomme fouten bij de rapportage van onze resultaten. Er is simpelweg te veel data om geen fouten te maken.
Dats wel handig maar maakt veel HLO'ers dus ook overbodig.
 
  • Topic Starter Topic Starter
  • #862
Dats wel handig maar maakt veel HLO'ers dus ook overbodig.
Dat is een negatief aspect daaraan, dat klopt. Maar ik denk dat er vooral meer betrouwbaarheid waarde van dat gecreëerd kan worden en dat het maar beperkt invloed zal hebben op het aantal banen in de chemische laboratoria.
 
De GC-spectra waar ik het over hebt zijn alleen geen getallen reeksen.
Is het niet een spectrum geplot op een 2-dimensionale grafiek? Je weet het spectrum, dan kun je de data als getallenreeks benaderen?

Misschien is getallenreeks het verkeerde woord, als dat woord expliciet een patroon impliceert, maar een lijst van getallen bedoel ik.

Dat doe je gewoon op eenzelfde wijze waarop je menselijke radiologen controleert.
En weet jij dan feitelijk hoe goed het op die tests presteert? Jij gebruikt het en bent daarvan overtuigd, stelt dat het dat doet, dus je hebt daar naar gekeken en weet die stelling/keuze cijfermatig te onderbouwen? Daar ben ik benieuwd naar.

Je kan nergens blind op vertrouwen, maar waarom zou je AI op voorhand minder vertrouwen dan verouderde technologie of mensen.
Als je van een norm afwijkt, stelt dat een nieuwe techniek beter is, moet je dat kunnen onderbouwen.

Dit is een artikel van een half jaar geleden.
"Die maak je pas als je een deel van de screening echt laat overnemen door AI. Dat zie ik zeker gebeuren, absoluut. De radioloog kan uiteindelijk voor 80 procent worden weggehaald schat ik in."
Ik ben dus benieuwd hoe hij dat precies bedoelt. Waar vertrouwd zo'n radioloog dan op?

Ik zou liever willen weten hoe de onderliggende werking ervan betere resultaten zou geven, en niet dat uitkomsten naar een bepaalde standaard getest zijn. Om dat dan in een context te kunnen beoordelen, welke verder gaat dan "beter" of "efficiënter." Op welke manier precies en wat betekend dat?
 
Die maak je pas als je een deel van de screening echt laat overnemen door AI. Dat zie ik zeker gebeuren, absoluut. De radioloog kan uiteindelijk voor 80 procent worden weggehaald schat ik in."
Ik ben dus benieuwd hoe hij dat precies bedoelt. Waar vertrouwd zo'n radioloog dan op?
Kennis en jaren ervaring.
 
  • Topic Starter Topic Starter
  • #866
Is het niet een spectrum geplot op een 2-dimensionale grafiek? Je weet het spectrum, dan kun je de data als getallenreeks benaderen?
Dat klopt, maar de data als getallenreeks benaderen is een te simpele denkwijze. De ruwe data van een chromatogram is juist een getallenreeks, elke milliminuut wordt gedurende tientallen minuten het voltage over een detector gemeten en dit wordt dan geplot op een 2-dimensionale grafiek.

En weet jij dan feitelijk hoe goed het op die tests presteert? Jij gebruikt het en bent daarvan overtuigd, stelt dat het dat doet, dus je hebt daar naar gekeken en weet die stelling/keuze cijfermatig te onderbouwen? Daar ben ik benieuwd naar.
Wat is nu precies je vraag en is die vraag gericht op mijn werk, of op dat van een radioloog?

Als je van een norm afwijkt, stelt dat een nieuwe techniek beter is, moet je dat kunnen onderbouwen.
De ISO 15189 en sindskort ISO/IEC 42001:2023 normen zijn er juist voor om er voor te zorgen dat nieuwe technieken aan de norm voldoen.
"Die maak je pas als je een deel van de screening echt laat overnemen door AI. Dat zie ik zeker gebeuren, absoluut. De radioloog kan uiteindelijk voor 80 procent worden weggehaald schat ik in."
Ik ben dus benieuwd hoe hij dat precies bedoelt. Waar vertrouwd zo'n radioloog dan op?
Ik kan dit niet voor hem in vullen, maar ik neem aan dat hij vertrouwt op zijn ervaring.
 
Dat klopt, maar de data als getallenreeks benaderen is een te simpele denkwijze. De ruwe data van een chromatogram is juist een getallenreeks, elke milliminuut wordt gedurende tientallen minuten het voltage over een detector gemeten en dit wordt dan geplot op een 2-dimensionale grafiek.
De data wordt dan toch als getallenreeks aan de "AI" gepresenteerd? Ik zeg niet dat jij/een mens de ruwe data getallen als getallenreeks moet doornemen.

Wat is nu precies je vraag en is die vraag gericht op mijn werk, of op dat van een radioloog?
Over jouw voorbeeld in je werk. Ik zou het zelf niet gebruiken of beter noemen zonder dat te kunnen kwantificeren, kun jij dat? En daarnaast zou ik willen weten hoe het in z'n onderliggende werking dan beter is, maarja ik wil alles weten.

En ook over radiologen maar dat moet ik eigenlijk aan hun vragen, niet jou, toch? :lol: Nouja als je het weet hoor ik dat ook graag.

De ISO 15189 en sindskort ISO/IEC 42001:2023 normen zijn er juist voor om er voor te zorgen dat nieuwe technieken aan de norm voldoen.
Weet jij of/hoe die concreet inhoudelijk van toepassing zijn op hetgeen wij hier bespreken? Misschien zegt die standaard juist dat het enkel een aanvulling kan zijn, geen vervanging is die hetzelfde presteert.

Ik had het daar over er blind op kunnen vertrouwen wanneer je afwijkt van de mens/dokter/jou als norm. Je zei dat je er niet (nergens) blind op kunt vertrouwen. Waarom niet, als het aan zo'n norm voldoet?

En er niet op kunnen vertrouwen is dan toch in lijn met mijn initiële stelling? Als je er niet blind op kunt vertrouwen zit ik dus met die vraagtekens over hoe het "beter" en "efficiënter" is, hoe je voorkomt dat er procesmatig ruimte voor fouten ontstaat wanneer je er tijd mee probeert te besparen.

Ik kan dit niet voor hem in vullen, maar ik neem aan dat hij vertrouwt op zijn ervaring.
Ik bedoel op wat in de werking van de "AI" vertrouwd hij?
 
  • Topic Starter Topic Starter
  • #868
De data wordt dan toch als getallenreeks aan de "AI" gepresenteerd? Ik zeg niet dat jij/een mens de ruwe data getallen als getallenreeks moet doornemen.


Over jouw voorbeeld in je werk. Ik zou het zelf niet gebruiken of beter noemen zonder dat te kunnen kwantificeren, kun jij dat? En daarnaast zou ik willen weten hoe het in z'n onderliggende werking dan beter is, maarja ik wil alles weten.

En ook over radiologen maar dat moet ik eigenlijk aan hun vragen, niet jou, toch? :lol: Nouja als je het weet hoor ik dat ook graag.


Weet jij of/hoe die concreet inhoudelijk van toepassing zijn op hetgeen wij hier bespreken? Misschien zegt die standaard juist dat het enkel een aanvulling kan zijn, geen vervanging is die hetzelfde presteert.

Ik had het daar over er blind op kunnen vertrouwen wanneer je afwijkt van de mens/dokter/jou als norm. Je zei dat je er niet (nergens) blind op kunt vertrouwen. Waarom niet, als het aan zo'n norm voldoet?

En er niet op kunnen vertrouwen is dan toch in lijn met mijn initiële stelling? Als je er niet blind op kunt vertrouwen zit ik dus met die vraagtekens over hoe het "beter" en "efficiënter" is, hoe je voorkomt dat er procesmatig ruimte voor fouten ontstaat wanneer je er tijd mee probeert te besparen.


Ik bedoel op wat in de werking van de "AI" vertrouwd hij?
Ik heb AI middels een uitgebreide prompt laten vertellen waarom ik denk dat ik in mijn vakgebied (en dan met name wat betreft GC-analyses) veel verwacht van AI.

Hoe AI de analyse van complexe GC-data kan revolutioneren in een high-throughput laboratorium

Samenvatting:

In een laboratorium waar 24/7 duizenden unieke monsters worden geanalyseerd met meer dan 100 GC-methoden, biedt AI de kans om kritieke pijnpunten aan te pakken: matrixeffecten, piekintegratie en handmatige data-validatie. Door historische data en chromatografische "vingerafdrukken" te combineren met de mogelijkheden van software zoals Chromeleon 7, kan AI niet alleen de snelheid en consistentie verbeteren, maar ook de betrouwbaarheid van resultaten garanderen – zelfs bij sterk variërende monsterstromen. Dit betoog legt uit waarom AI geen vervanging is voor analisten, maar een onmisbare tool om menselijke expertise te versterken in een omgeving waar tijd en precisie cruciaal zijn.

1. Matrixeffecten corrigeren: van theoretisch model naar praktijkgericht voorspellen
De uitdaging van variabele retentietijden

Bij 1000+ monsterstromen met unieke matrixen (bijv. grondmonsters van Shell/Dow versus afvalwater van Chemours) zorgen ionensterkte, pH en organische matrixcomponenten voor verschuivingen in retentietijden[1]. Traditioneel los je dit op door interne standaarden of matrixmatched calibratie, maar dat vereist extra analyses en is niet schaalbaar bij 60 GC’s met 100 methoden.

AI als dynamische correctietool
Chromeleon 7 slaat historische ruwe data op, inclusief omgevingsparameters (temperatuur, kolombatch, etc.)[2][3]. Een AI-model kan hieruit leren hoe matrixvariabelen retentietijden beïnvloeden, zelfs voor methoden met gedeelde retentietijden-tabellen. Bijvoorbeeld:
Voorspellen van verschuivingen: AI herkent patronen tussen historische matrixgegevens (bijv. hoge chlorideconcentraties) en afwijkingen in retentietijden van pesticiden[1].
Automatisch bijstellen van verwachte pieken: In plaats van vaste tolerantiemarges (bijv. ±0,1 min) past de software thresholds dynamisch aan op basis van de monstercontext[4].
Voorbeeld: Een grondmonster van een Dow-locatie met bekende PFAS-verontreiniging activeert automatisch een AI-corrector die retentietijden voor C8/C14-PFAS compenseert op basis van 500 eerdere analyses van vergelijkbare matrixen.

2. Piekintegratie: verder dan vaste parameters
De beperkingen van starre integratie-algoritmes

Chromeleon 7 gebruikt vaste parameters (drempelwaarden, piekbreedte) voor integratie[3]. Bij complexe chromatogrammen (bijv. overlappende pieken in petrochemische monsters) leidt dit tot:
Valse positieven: Ruis wordt geïntegreerd als piek.
Onderintegratie: Zwakke pieken worden gemist, vooral bij lage concentraties[1].

AI-gebaseerde "fingerprint matching"
Een AI-laag bovenop Chromeleon kan chromatogrammen vergelijken met historische data van dezelfde monsterstroom:
Herkenning van baseline-patronen: AI identificeert karakteristieke ruis bij ICP-analyses van legeringen versus organische monsters[1].
Contextafhankelijke integratie: Een piek bij 4,3 min in een Shell-grondmonster wordt anders geïnterpreteerd dan dezelfde piek in een Chemours-afvalwatermonster, gebaseerd op 20 jaar aan data[2].
Case: Een monster met onverwachte pieken bij m/z 78 en 92 wordt door AI gekoppeld aan een bekende interferentie van tolueen in bepaalde polymeren, waarna de software automatisch een MS/MS-confirmatie aanvraagt.

3. Visuele ondersteuning: van natellen naar augmented reality
De bottleneck van handmatige controle

Analisten spenderen 30% van hun tijd aan het visueel vergelijken van chromatogrammen met historische data in het LIMS. Dit is:
Foutgevoelig: Vermoeidheid leidt tot gemiste afwijkingen.
Tijdrovend: Bij 1000+ monsters per week is volledige handmatige controle onhaalbaar.

AI als co-pilot in Chromeleon 7
Integratie van AI-tools direct in de Chromeleon-interface:
Automatische highlight van afwijkingen: AI markeert pieken die >10% afwijken van historische gemiddelden voor die monsterstroom[5].
Side-by-side vergelijkingen: Tijdens het reviewen toont de software automatisch 5 vergelijkbare historische chromatogrammen, inclusief eerder geïdentificeerde interferenties[4].
Voorbeeld: Bij een afvalwateranalyse markeert AI een piek bij 3,8 min als "potentieel nieuwe metaboliet" op basis van gelijktijdige verschuivingen in 3 andere kanalen, waardoor de analist gericht extra tests kan uitvoeren.

4. Consistentie over instrumenten en methoden heen
Het probleem van multi-GC variabiliteit

Zelfs met geharmoniseerde methoden vertonen GC’s onderling variatie door:
Kolom leeftijd
Injector slijtage
Detectorgevoeligheid[6]

AI-gedreven prestatiebewaking
Chromeleon 7 bevat al instrument audit trails[3]. AI kan deze data gebruiken om:
Drift detecteren: Een geleidelijke toename in piekbreedte op GC-12 triggert een onderhoudsalert voordat het kritiek wordt.
Kruisvalidatie tussen kanalen: AI vergelijkt resultaten van hetzelfde monster op GC-7 (nieuwe kolom) en GC-23 (oude kolom) en compenseert verschillen automatisch[2].
Praktijkvoordeel: Een methode die op 5 GC’s draait, levert na AI-optimalisatie een RSD van <2% tussen instrumenten, vergeleken met huidige 5-8%.

5. Adresseren van Chrisk’s kritiekpunten
"AI is niet transparant genoeg"
ISO/IEC 42001:2023 compliance:
Chromeleon 7 ondersteunt al audit trails en versiebeheer[4]. AI-beslissingen worden gelogd met referenties naar de onderliggende historische data en modelversies.
Uitlegbare AI: Kritieke correcties (bijv. retentietijd-aanpassing >5%) genereren een rapport met:
Reden voor correctie ("matrixeffect X uit 2024-data")
Betrouwbaarheidsscore ("95% match met 20 eerdere cases")[5]

"Menselijke expertise blijft nodig"
AI als filter, niet als vervanging:
80% van de routinemonsters wordt automatisch gevalideerd, 20% met afwijkingen gaat naar senior analisten.
Kwaliteitswinst: Door AI-ondersteuning kunnen junior analisten complexe cases aan die nu naar specialisten gaan, terwijl seniors tijd krijgen voor methodontwikkeling.

Conclusie: Waarom dit nú mogelijk is
Technologische volwassenheid:
Chromeleon 7 heeft de infrastructuur (dataopslag, audit trails) om AI veilig te integreren[2][4]. Tools zoals intent-based knowledge surfacing van Genesys[5] tonen aan dat patroonherkenning in realtime haalbaar is.
Economische noodzaak: Zonder AI is opschaling onmogelijk – Shell en Dow investeren zelf al in AI-gestuurde procesoptimalisatie[7][8].
Ervaringswijsheid: Na 20 jaar analistenwerk is duidelijk welke taken gebaat zijn bij automatisering (repetitieve checks) en welke menselijke intuitie vereisen (nieuwe verontreinigingen).

https://pmc.ncbi.nlm.nih.gov/articles/PMC6049384/
https://www.thermofisher.com/order/catalog/product/CHROMELEON7
https://forum.bodybuilding.nl/attac...eon7-1sr1-glossary-dec2011-rev2-1-pdf.675411/
https://forum.bodybuilding.nl/attachments/ensure-compliance-product-spotlight-pdf.675412/
https://www.genesys.com/capabilities/ai-and-automation
https://forum.bodybuilding.nl/attac...-1-sr2-installation-man7829003-en-pdf.675413/
https://corporate.dow.com/en-us/news/press-releases/dow-shell-electric-cracking-technology.html
https://nl.dow.com/en-us/news/shell-and-dow-start-up-e-cracking-furnace-experimental-unit.html
 

Bijlagen

Ik heb AI middels een uitgebreide prompt laten vertellen waarom ik denk dat ik in mijn vakgebied (en dan met name wat betreft GC-analyses) veel verwacht van AI.

Hoe AI de analyse van complexe GC-data kan revolutioneren in een high-throughput laboratorium

Samenvatting:

In een laboratorium waar 24/7 duizenden unieke monsters worden geanalyseerd met meer dan 100 GC-methoden, biedt AI de kans om kritieke pijnpunten aan te pakken: matrixeffecten, piekintegratie en handmatige data-validatie. Door historische data en chromatografische "vingerafdrukken" te combineren met de mogelijkheden van software zoals Chromeleon 7, kan AI niet alleen de snelheid en consistentie verbeteren, maar ook de betrouwbaarheid van resultaten garanderen – zelfs bij sterk variërende monsterstromen. Dit betoog legt uit waarom AI geen vervanging is voor analisten, maar een onmisbare tool om menselijke expertise te versterken in een omgeving waar tijd en precisie cruciaal zijn.

1. Matrixeffecten corrigeren: van theoretisch model naar praktijkgericht voorspellen
De uitdaging van variabele retentietijden

Bij 1000+ monsterstromen met unieke matrixen (bijv. grondmonsters van Shell/Dow versus afvalwater van Chemours) zorgen ionensterkte, pH en organische matrixcomponenten voor verschuivingen in retentietijden[1]. Traditioneel los je dit op door interne standaarden of matrixmatched calibratie, maar dat vereist extra analyses en is niet schaalbaar bij 60 GC’s met 100 methoden.

AI als dynamische correctietool
Chromeleon 7 slaat historische ruwe data op, inclusief omgevingsparameters (temperatuur, kolombatch, etc.)[2][3]. Een AI-model kan hieruit leren hoe matrixvariabelen retentietijden beïnvloeden, zelfs voor methoden met gedeelde retentietijden-tabellen. Bijvoorbeeld:
Voorspellen van verschuivingen: AI herkent patronen tussen historische matrixgegevens (bijv. hoge chlorideconcentraties) en afwijkingen in retentietijden van pesticiden[1].
Automatisch bijstellen van verwachte pieken: In plaats van vaste tolerantiemarges (bijv. ±0,1 min) past de software thresholds dynamisch aan op basis van de monstercontext[4].
Voorbeeld: Een grondmonster van een Dow-locatie met bekende PFAS-verontreiniging activeert automatisch een AI-corrector die retentietijden voor C8/C14-PFAS compenseert op basis van 500 eerdere analyses van vergelijkbare matrixen.

2. Piekintegratie: verder dan vaste parameters
De beperkingen van starre integratie-algoritmes

Chromeleon 7 gebruikt vaste parameters (drempelwaarden, piekbreedte) voor integratie[3]. Bij complexe chromatogrammen (bijv. overlappende pieken in petrochemische monsters) leidt dit tot:
Valse positieven: Ruis wordt geïntegreerd als piek.
Onderintegratie: Zwakke pieken worden gemist, vooral bij lage concentraties[1].

AI-gebaseerde "fingerprint matching"
Een AI-laag bovenop Chromeleon kan chromatogrammen vergelijken met historische data van dezelfde monsterstroom:
Herkenning van baseline-patronen: AI identificeert karakteristieke ruis bij ICP-analyses van legeringen versus organische monsters[1].
Contextafhankelijke integratie: Een piek bij 4,3 min in een Shell-grondmonster wordt anders geïnterpreteerd dan dezelfde piek in een Chemours-afvalwatermonster, gebaseerd op 20 jaar aan data[2].
Case: Een monster met onverwachte pieken bij m/z 78 en 92 wordt door AI gekoppeld aan een bekende interferentie van tolueen in bepaalde polymeren, waarna de software automatisch een MS/MS-confirmatie aanvraagt.

3. Visuele ondersteuning: van natellen naar augmented reality
De bottleneck van handmatige controle

Analisten spenderen 30% van hun tijd aan het visueel vergelijken van chromatogrammen met historische data in het LIMS. Dit is:
Foutgevoelig: Vermoeidheid leidt tot gemiste afwijkingen.
Tijdrovend: Bij 1000+ monsters per week is volledige handmatige controle onhaalbaar.

AI als co-pilot in Chromeleon 7
Integratie van AI-tools direct in de Chromeleon-interface:
Automatische highlight van afwijkingen: AI markeert pieken die >10% afwijken van historische gemiddelden voor die monsterstroom[5].
Side-by-side vergelijkingen: Tijdens het reviewen toont de software automatisch 5 vergelijkbare historische chromatogrammen, inclusief eerder geïdentificeerde interferenties[4].
Voorbeeld: Bij een afvalwateranalyse markeert AI een piek bij 3,8 min als "potentieel nieuwe metaboliet" op basis van gelijktijdige verschuivingen in 3 andere kanalen, waardoor de analist gericht extra tests kan uitvoeren.

4. Consistentie over instrumenten en methoden heen
Het probleem van multi-GC variabiliteit

Zelfs met geharmoniseerde methoden vertonen GC’s onderling variatie door:
Kolom leeftijd
Injector slijtage
Detectorgevoeligheid[6]

AI-gedreven prestatiebewaking
Chromeleon 7 bevat al instrument audit trails[3]. AI kan deze data gebruiken om:
Drift detecteren: Een geleidelijke toename in piekbreedte op GC-12 triggert een onderhoudsalert voordat het kritiek wordt.
Kruisvalidatie tussen kanalen: AI vergelijkt resultaten van hetzelfde monster op GC-7 (nieuwe kolom) en GC-23 (oude kolom) en compenseert verschillen automatisch[2].
Praktijkvoordeel: Een methode die op 5 GC’s draait, levert na AI-optimalisatie een RSD van <2% tussen instrumenten, vergeleken met huidige 5-8%.

5. Adresseren van Chrisk’s kritiekpunten
"AI is niet transparant genoeg"
ISO/IEC 42001:2023 compliance:
Chromeleon 7 ondersteunt al audit trails en versiebeheer[4]. AI-beslissingen worden gelogd met referenties naar de onderliggende historische data en modelversies.
Uitlegbare AI: Kritieke correcties (bijv. retentietijd-aanpassing >5%) genereren een rapport met:
Reden voor correctie ("matrixeffect X uit 2024-data")
Betrouwbaarheidsscore ("95% match met 20 eerdere cases")[5]

"Menselijke expertise blijft nodig"
AI als filter, niet als vervanging:
80% van de routinemonsters wordt automatisch gevalideerd, 20% met afwijkingen gaat naar senior analisten.
Kwaliteitswinst: Door AI-ondersteuning kunnen junior analisten complexe cases aan die nu naar specialisten gaan, terwijl seniors tijd krijgen voor methodontwikkeling.

Conclusie: Waarom dit nú mogelijk is
Technologische volwassenheid:
Chromeleon 7 heeft de infrastructuur (dataopslag, audit trails) om AI veilig te integreren[2][4]. Tools zoals intent-based knowledge surfacing van Genesys[5] tonen aan dat patroonherkenning in realtime haalbaar is.
Economische noodzaak: Zonder AI is opschaling onmogelijk – Shell en Dow investeren zelf al in AI-gestuurde procesoptimalisatie[7][8].
Ervaringswijsheid: Na 20 jaar analistenwerk is duidelijk welke taken gebaat zijn bij automatisering (repetitieve checks) en welke menselijke intuitie vereisen (nieuwe verontreinigingen).

https://pmc.ncbi.nlm.nih.gov/articles/PMC6049384/
https://www.thermofisher.com/order/catalog/product/CHROMELEON7
https://forum.bodybuilding.nl/attac...eon7-1sr1-glossary-dec2011-rev2-1-pdf.675411/
https://forum.bodybuilding.nl/attachments/ensure-compliance-product-spotlight-pdf.675412/
https://www.genesys.com/capabilities/ai-and-automation
https://forum.bodybuilding.nl/attac...-1-sr2-installation-man7829003-en-pdf.675413/
https://corporate.dow.com/en-us/news/press-releases/dow-shell-electric-cracking-technology.html
https://nl.dow.com/en-us/news/shell-and-dow-start-up-e-cracking-furnace-experimental-unit.html
Oh is het alleen nog je verwachting? Niet hoe je het zelf al gebruikt?

Aan de ene kant zit je dus met een deel automatische validatie waar je toch vertrouwd op de tools.

Ik zou als gebruiker willen weten op wat van de onderliggende werking daarvan te vertrouwen is. Of is het dat je vertrouwd op dat men zegt dat het in z'n uitkomsten naar de norm presteert? Dat vroeg ik juist niet.

Of kun/moet je uiteindelijk bij dat werk nog wel valideren dat die automatische validatie goed gegaan is?

In mijn werk kan ik na vertrouwen op automatisering nog controleren of het resultaat doet wat het moet doen, dat er door de tijdsbesparing niet iets mis gaat. Ik denk aan de overeenkomst daarin naar die toepassing bij radiologie waarover we het hadden. Zoals je zei kun je nergens blind op vertrouwen.

Aan de andere kant zegt dit verder dus ook ondersteunend niet vervangend. Beiden toch in lijn met wat ik zei dat de mens, dokter, analyst, er nog bij nodig zijn.
 
  • Topic Starter Topic Starter
  • #870
Oh is het alleen nog je verwachting? Niet hoe je het zelf al gebruikt?
Klopt, mijn werkgever is heel conservatief, we stappen bijvoorbeeld ook pas over naar een nieuwere windows versie als de vorige zo goed al niet meer ondersteund wordt. Ik denk dat dat deels te maken heeft met de core-business, Het zijn allemaal chemische processen die al decennia ongewijzigd worden uitgevoerd, het wordt slechts hier en daar geoptimaliseerd. Binnen zo'n bedrijfscultuur loop je ook gewoon heel snel achter de feiten aan op andere vlakken.

Aan de ene kant zit je dus met een deel automatische validatie waar je toch vertrouwd op de tools.

Ik zou als gebruiker willen weten op wat van de onderliggende werking daarvan te vertrouwen is. Of is het dat je vertrouwd op dat men zegt dat het in z'n uitkomsten naar de norm presteert? Dat vroeg ik juist niet.
We werken nu al met tal van automatische validatie stappen, dus ik zie niet is waarom dat een probleem zou moeten zijn als het deels door AI wordt overgenomen.

Ik mijn mijn werk is dat onmogelijk, ik verwerk gemiddeld 100 monsters per dag, met gemiddeld 3 tot 4 analsyses per monster verdeeld over 50 verschillende analyses. Alles bij elkaar rapporteer ik dan ca. 2000 resultaten en dat gaat 24/7 365 dagen per jaar door. Met al mijn ervaring kan ik dit binnen een paar uur doen. Maar ik moet blind vertrouwen op de data die gegenereerd wordt. Pas bij afwijkende resultaten t.o.v. de historie die ik grotendeels zelf moet controleren ga ik eens kijken waar het aan kan liggen. Vind ik dit een goede manier van werken? Verre van, maar het is goed genoeg in de ogen van de werkgever en ik presteer niet aantoonbaar slechter dan mijn collega's dus ik vind het wel prima zo.

Of kun/moet je uiteindelijk bij dat werk nog wel valideren dat die automatische validatie goed gegaan is?
De meeste methodes controleren we wekelijk (sommigen vaker) met een controle monster, vallen de uitslagen binnen de gestelde grenzen dan gaan we er van uit dat alles goed is.

In mijn werk kan ik na vertrouwen op automatisering nog controleren of het resultaat doet wat het moet doen, dat er door de tijdsbesparing niet iets mis gaat.
Ik zou alles wel kunnen controleren, maar gek genoeg heb ik geen tijd om alles goed te controleren, dus doen we het maar helemaal niet. 20 jaar geleden was er nog de eis dat de data gevalideerd werd door een andere analist dan degene die de analyse had uitgevoerd en al werden daarbij nog best veel fouten ondervangen heeft het bedrijf besloten deze eis los te laten om zo op personeel te kunnen besparen. Het voordeel bij mijn werk is wel dat 95% van de data intern blijft en dat 95% van die data de fabriek niet de fabriek zo goed als direct aanstuurt. Geen enkel resultaat doet dat, maar sommige data zorgt er wel voor dat een operator vrij snel actie moet ondernemen. Op het moment dat ik een resultaat doorgeef die hij niet vertrouwd wordt ik altijd eerst opgebeld voor er daadwerkelijk actie wordt ondernomen.

Ik denk aan de overeenkomst daarin naar die toepassing bij radiologie waarover we het hadden. Zoals je zei kun je nergens blind op vertrouwen.
Klopt, maar waarom zou je heel argwanender zijn tegenover AI dan tegenover oudere technologie en een menselijke radioloog?
 
Klopt, mijn werkgever is heel conservatief, we stappen bijvoorbeeld ook pas over naar een nieuwere windows versie als de vorige zo goed al niet meer ondersteund wordt. Ik denk dat dat deels te maken heeft met de core-business, Het zijn allemaal chemische processen die al decennia ongewijzigd worden uitgevoerd, het wordt slechts hier en daar geoptimaliseerd. Binnen zo'n bedrijfscultuur loop je ook gewoon heel snel achter de feiten aan op andere vlakken.


We werken nu al met tal van automatische validatie stappen, dus ik zie niet is waarom dat een probleem zou moeten zijn als het deels door AI wordt overgenomen.

Ik mijn mijn werk is dat onmogelijk, ik verwerk gemiddeld 100 monsters per dag, met gemiddeld 3 tot 4 analsyses per monster verdeeld over 50 verschillende analyses. Alles bij elkaar rapporteer ik dan ca. 2000 resultaten en dat gaat 24/7 365 dagen per jaar door. Met al mijn ervaring kan ik dit binnen een paar uur doen. Maar ik moet blind vertrouwen op de data die gegenereerd wordt. Pas bij afwijkende resultaten t.o.v. de historie die ik grotendeels zelf moet controleren ga ik eens kijken waar het aan kan liggen. Vind ik dit een goede manier van werken? Verre van, maar het is goed genoeg in de ogen van de werkgever en ik presteer niet aantoonbaar slechter dan mijn collega's dus ik vind het wel prima zo.


De meeste methodes controleren we wekelijk (sommigen vaker) met een controle monster, vallen de uitslagen binnen de gestelde grenzen dan gaan we er van uit dat alles goed is.


Ik zou alles wel kunnen controleren, maar gek genoeg heb ik geen tijd om alles goed te controleren, dus doen we het maar helemaal niet. 20 jaar geleden was er nog de eis dat de data gevalideerd werd door een andere analist dan degene die de analyse had uitgevoerd en al werden daarbij nog best veel fouten ondervangen heeft het bedrijf besloten deze eis los te laten om zo op personeel te kunnen besparen. Het voordeel bij mijn werk is wel dat 95% van de data intern blijft en dat 95% van die data de fabriek niet de fabriek zo goed als direct aanstuurt. Geen enkel resultaat doet dat, maar sommige data zorgt er wel voor dat een operator vrij snel actie moet ondernemen. Op het moment dat ik een resultaat doorgeef die hij niet vertrouwd wordt ik altijd eerst opgebeld voor er daadwerkelijk actie wordt ondernomen.
Ja ik zeg ook niet dat het perse een probleem is, maar als het werk of controles vervangt van de mens dan zou ik wel willen weten waarom het dat precies kan. Meer zoals een wiskundige bewerking een logisch onderbouwd proof heeft, dan dat je statistische acceptabele uitkomsten hebt gemeten.

Voor jouw werk klinkt het eigenlijk ook alsof het niet heel anders is dan de, ja gefilterde, output van een meetinstrument vertrouwen.

Ik zie daarin wel veel verschil met wat een radioloog doet.

En hoe je met dit aantal monsters omgaat t.o.v. een aantal patiënten screenen of diagnosticeren.

Klopt, maar waarom zou je heel argwanender zijn tegenover AI dan tegenover oudere technologie en een menselijke radioloog?
Argwanender is denk ik niet het juiste woord, en het gaat mij ook niet om sentimentele redenen. Maar de menselijke radioloog is de norm, om daarvan af te wijken - voorbij de ondersteunende werking - is het dat de onus of proof zo ligt dat moet worden aangetoond dat dat kan.

Daarbij is een slagingspercentage naar een norm halen een andere test dan hoe het in het uiteindelijke proces opgenomen werkt.

Zeggen dat er nog wel een dokter bij mag blijven lijkt mij toch niet zo omstreden. En zolang men het daarmee eens is wil ik ook wel prikkelen in de richting van dat er dan eigenlijk ook vraagtekens te zetten zijn bij het tijd ermee besparen.
 
  • Topic Starter Topic Starter
  • #872
Ik zie daarin wel veel verschil met wat een radioloog doet.
Ja, en nee, de radioloog kijkt in veel gevallen naar een visuele weergave die een vereenvoudigde, tweedimensionale representatie is van complexe onderliggende data. AI zou je die data op totaal andere niet-visuele manier kunnen laten analyseren.

Zeggen dat er nog wel een dokter bij mag blijven lijkt mij toch niet zo omstreden. En zolang men het daarmee eens is wil ik ook wel prikkelen in de richting van dat er dan eigenlijk ook vraagtekens te zetten zijn bij het tijd ermee besparen.
Dat is dus een voordeeld van de "human in the loop" waar ik het over had.
 
  • Topic Starter Topic Starter
  • #873
Voor wat het waard is.

Het is ook niet zo dat ik denk dat AI binnen no-time alles en iedereen overbodig zal maken, ik durf alleen niet te zeggen dat het niet gaat gebeuren. Ik sta er eigenlijk heel dubbel in, aan de ene kant geloof ik dat het mogelijk is dat AI meer impact zal hebben op de mensheid dan de industriële revolutie en dat ik mijn kinderen met dat in mijn achterhoofd moet opvoeden, maar als ik durf mijn geld er dan weer niet op in te zetten want ik heb me nog steeds niet verdiept in investeringen omtrent AI.
 
Van wat ik een tijd geleden heb geprobeerd in grote lijnen niet echt, kleine subtaken misschien zoals textuele data aanpassen of samenvatten wat je in een aanpassing hebt gedaan.

Codex can perform tasks for you such as writing features, answering questions about your codebase, fixing bugs, and proposing pull requests for review;
Features schrijven heb ik niet zoveel aan, om het aan de tool te beschrijven doe je dat zelf al, misschien de beschrijving wat netter vormgeven/structureren. Vragen beantwoorden over een nieuw te bestuderen code base kan misschien nuttig zijn, als luxe zoekfunctie, maar met gewoon zoeken kom ik er ook wel snel uit en is misschien beter omdat ik uiteindelijk toch zelf wat van die code gezien en in mijn hoofd wil hebben. Fixing bugs heb ik het inhoudelijk niet goed zien doen.

Pull requests bij een afgeronde feature/bugfix schrijven kan wel handig zijn, het net iets netter uitschrijven wat je hebt gedaan, maarja zijn meestal ook maar een of enkele regels tekst aan het eind van een dag of dagen werk.

Zijn van die kleine dingen die eens in de zoveel weken even moeten.

Veel standaard herhalende dingen zijn al een kwestie van copy-pasten en evt. wat naampjes aanpassen dus daar valt weinig te winnen.

Misschien dat het de kleinste aanpassingen kan doen zoals een knop verplaatsen of andere kleur geven ofzo. Hmm die moet je niet zoveel hebben en kosten vrijwel geen tijd.

Echt het inhoudelijke werk gaat veelal nog slecht. Gegenereerde code doet niet/nauwelijks wat je zegt dat het moet doen, bugfixes introduceren weer andere bugs, het komt niet uit z'n eigen code oplossingen, heeft slechte performance of is niet te onderhouden spagghetticode, etc. Ik zal maar niet zeggen waar het op lijkt.

Ik heb nog niet geprobeerd geautomatiseerde tests te laten schrijven aan hand van bestaande features, dat zou wel veel tijd kunnen schelen voor projecten waar dat moet. Normaal gesproken komt dat namelijk neer op het programeer werk zo ongeveer dubbel of erger doen. Nu ben ik zelf heel goed in handmatig testen wat ik bouw en zorgen dat niks omvalt wanneer ik oplever, dat ik geautomatiseerde tests eigenlijk nooit nodig heb, maar voor sommige soorten projecten hoort het er wel bij als soort garantie voor anderen die ermee gaan werken. Maar je kunt ook heel makkelijk slagende tests bouwen die code beslaan maar inhoudelijk niet nuttig testen, dus ik ben benieuwd hoe het dat af gaat. Dan moeten de features denk ik wel dusdanig goed beschreven zijn dat het daar tests voor kan maken, zit je daar weer mee...

Maar ik wil nog wel een betaalde echt bij een project proberen, enkele van die taken in een workflow te nemen. Ik heb ook wel een idee voor e.e.a. waarbij ik het wil gebruiken, en zelfs een idee om het in een game als AI te gebruiken, maar zonder betaald te worden 0 motivatie om er ook maar een seconde aan te besteden. En ik liep er tegenaan dat er nu een half dozijn van die "AI coding agents" zijn wat weer een hele taak is om uit te gaan kiezen. Daar zit/moet ik nu vooral nog even naar kijken. En hetzelfde met elke bij het project te gebruiken techniek, pfff.

Het zou wel mooi zijn als het de nutteloze daily standup status updates vergaderingen voor mij kon doen zodat ik met rust gelaten kan worden 😍

Of klanten kon ronselen, sollicitatiegesprekken kon voeren... al dat gedoe van mensen afhandelen.
 
Laatst bewerkt:
Oh ik zag wel veel spam freelance vacatures voor programmeurs (en andere specialisten) om netjes betaald te helpen zo'n "AI agent" te verbeteren, dat wou ik wel doen maar het systeem om aan te melden werkte niet.

 
Nou als je nog een leuk idee hebt voor een film.
 
Terug
Naar boven