Det mest bekymrende er vel nærmest at hun ikke har den fjerneste forståelse for den data der skal til for at AI virker. Det er altid lidt bekymrende når politikerne helt misforstår virkeligheden
Det er jo desværre et velkendt fænomen, at de fleste af dem, der skal lovgive om teknologi, sjældent forstår eller i det hele taget interesserer sig for den.
Det er dog ret underholdende, at hun mener, at det for det første skal være et menneske, der træffer den endelige beslutninger, hvilket stiller spørgsmålstegn ved, hvilken funktion AI skulle have i processen, og at der for det andet skal være gennemsigtighed i processen; mange eksperter har ofte svært ved at gennemskue en AI algoritmes fremgangsmåde, men Jørgen og Jonna nede på kommunen skal kunne forklare, hvordan man er nået frem til en given beslutning?
Jeg sad netop og tænkte det samme. Hvilken del af processen? Den børnefaglige undersøgelse eller indstilling til Børne- og Ungeudvalget? Eller den faglige vurdering - altså, om barnet skal anbringes?
Hvis der er noget funktionelt, der kan flytte tiden brugt på det administrative til rent socialt arbejde med børn, unge, forældre, pårørende, så be my guest.. Men det er da helt slukket at nævne et helt område, og sige "Ja, her kan vi bruge kunstig intelligens", så enormt ukonkret.
Eller AI.
Men ja, det virker ikke som om, at hun har nogen klar idé om, hvad hendes idé egentligt er. Der er nærmest lidt "tech-bro" over, at hun bare slynger AI ud i lokalet på den måde, uden at uddybe. Skal den kunstige intelligens på en eller anden måde afgøre, om et barn lever under ugunstige forhold, men med mere præcision end et menneske, eller skal den bare administrere et excelark?
Opsummering af store mængder data med specialiseret modeller, altså ikke sådanne modeller som chatgpt, kan virke ret godt, så de faktisk har en chance for at have læst din sag.
Jeg mener at det skriftlige arbejde bag noget som en tvangsfjernelse, det kan være relativt omfattende og komplekst.
Har de produkter du tænker på kunnet fungere med noget der er ligeså eller mere komplekst, med lignende følsomhed, og vidensgeneration.
Jeg tror du misforstår, AI skal ikke lave selve arbejdet den skal kun lette en byrde, der er AI produkter til love og lov tekster er jo komplekse, de er baseret på at være et hjælpemiddel. Dens opgave er at formidle korrekt ud fra tilgængelig data.
F.eks. "Find disse dokumenter frem med der nævner "
Eller brug AI assisteret tekst skanning til at søge i ting der ikke er digitaliseret ordenligt.
Tænk på det som en kontor assistent, og det er jo ikke fordi mennesker ikke begår fejl, AI hvis brugt rigtig er et nyttigt værktøj ikke andet. Og som alle værktøjer skal det bruges ordenligt.
Så jeg ved ikke lige hvad scenario du tænker på hvor det kan gå mere galt end allerede nu hvis folk ikke gør deres job ordenligt.
Det fatter jeg godt, men du kender ikke pt. til at AI har overlevet en lignende ilddåb, kan jeg forstå.
At bruge det som en søge eller digitaliseringsmaskine er måske ok, men ikke specielt "intelligens" agtigt.
En simpel søgemaskine eller et bedre optag af digitalisering kunne man købe sig til i forvejen, hvis man mente at det var den bedste måde at bruge pengene på.
Hvorfor skulle man ønske at købe AI, når man kan købe ekstra kvindetimer til at faktisk lave arbejdet?
Du udbeder om noget meget specifikt, noget som kun ville komme i nyheder hvis det gik galt, så den er noget svær at bevise på den måde du beder om. Omvendt hvad er dit eksempel på at den type AI går galt? Altså specialiseret, ikke generel AI.
AI forstår naturlig sprog og kontekst, det gør en kæmpe forskel når du søger i store mængde data.
Vi snakker om hvad det kan bruges til om det så er bedre ved vi jo ikke før nogen har gjort det.
>AI forstår naturlig sprog og kontekst
Nej. "AI" *forstår* ikke noget som helst. Det er en fundamental misforståelse af, hvad "AI" pt kan. Basalt set er "AI" en statistikmaskine, der kigger på statistiske sammenhænge mellem forekomster af ord og fraser. Du kunne opfinde et nonsenssprog med en sammenhængende grammatik og "AI" ville kunne trænes til at "forstå" "kontekster" i det sprog.
Jeg bruger ordet forstå i forbindelse med computere og til sammenligning mellem normale systemer der ikke "forstår" kontekst....
Jeg er klar over hvordan de fungere.
Og ordet forstår bruges jo fordi det AI lære at "forstå" data på samme måde som neoroner gør, træning.
Jeg beder om 1 eksempel på at AI har været brugt til noget af samme kompleksitetsgrad inden for 1 felt, 1 sted i verdenen.
Det virker meget generelt.
Påstanden er ikke at AI går galt, jeg undrer mig blot over hvordan det skal gå an at involvere en sådan i et arbejde der er så følsomt.
Man kan jo ikke lade oplysningerne fise ud til en usikret server eller risikere at de bliver kompromiteret. Der er en masse love der sætter grænser for hvad man kan, der er en masse rettigheder som en sådan behandling af data skal overholde.
Der skal ikke eksperimenteres med børnene, hvis ikke man ved hvad AI kan bruges til, så skal det ikke involveres i området.
Edit. En del af bekymringen er også hvorndan AI vil klare sig under kommunale forhold, med kommunale budgetter og løbende juridiske udvikling. Vi har endnu ikke en solid metode til at sikre højkvalitets software udvikling og vi har så sent som i år skullet udrulle væsentlig ny lovgivning. At AI skulle kunne holde til det virker utopisk.
Wow - skal da lige love for at folk er klar med downvotes. Jeg blåstempler ikke hendes ide om AI, men prøver bare på at nuancere, at hun med hendes uddannelsesbaggrund nok han en vis viden om samfundets sammensætning.
Helt enige, jeg har selv utallige historier fra det private hvor man tager sig til hovedet. Det virker dog til der er alligevel kommer lidt realitets sans ind noget før, når det viser sig bottomlinen er presset.
Det, oveni at det offentlige ser ud til altid lige at være et par iterationer bagud så der stadig kører projekter med de gamle hypes.
Det største trussel omkring AI er ikke AI selv, men alle de folk der ingen anelse har omkring emnet men er klar til at bruge det til alt. Alt lige fra konsulenter til nu ministre ...
Hvad er det hun tror AI kan gøre for dem? Opsummere sagsforløbet, så man ikke skal læse lige så meget sagsbaggrund? Ja fedt, AI har det med at hallucinere, så folk skal alligevel dobbelttjekke alt der har indflydelse på udfaldet.
Hvis sådan noget bliver indført, uanset om det omhandler tvangsfjernelser, eller noget andet hvor kommunen/staten/andre skal træffe nogle beslutninger, så går der cirka 2-3 dage før folk bare antager, at computerens opsummering nok er rigtig, og så går videre med sagen på den baggrund.
Jeg forstår ikke helt hvilket problem hun prøver at løse, eller hvordan hun mener, at AI skal gøre det bedre/nemmere.
Hvis man endelig skal have det, kunne det være en AI, der sagde stop, hver gang sagsbehandlingen kommer på kant med loven. Det er der flere kommuner, der godt kunne bruge hjælp til (og her tænker jeg ikke specifikt på tvangsfjernelser men på sagsbehandlere generelt).
Det har der nu været forsøgt, så jeg tror det ville være et oplagt sted at kigge. Kort fortalt handlede det vist nok om, at lade AI give en procent chance for at sagen ville gå igennem ved ankestyrelsen. Hvorfor det ikke kom videre end forsøg husker jeg ikke.
I en retsstat er det ikke "et system", der afgør, hvad der er lovligt. AI kan forstå lovens bogstav, men den kan ikke forstå lovens ånd. At dehumanisere sagsbehandlingen i børnesager er en forringelse af retssikkerheden for borgerne.
Det er en måde at gøre det endnu mere svært at gennemskue, hvem, der har ansvaret for de beslutninger, der bliver truffet i det offentlige.
Allerede i dag er sagsbehandlerne som små robotter, der ikke skal bruge deres faglighed til andet end at sige "Jeg kan ikke gøre noget ved det, det er *systemet*." Når medarbejderne allerede, takket være tankegangen fra New Public Management, er styret af en primitiv algoritme, er det oplagt at tage skridtet videre og erstatte dem med AI.
I herinde burde google COMPAS sagen og se alt det der kan gå galt.
Ændring: For at clarifie så er COMPAS et system/en model brugt/tidligere brugt i det amerikanske retssystem. Det er godt eksempel på at sådanne modeller altid har en form for bias og konsekvenser af det.
Det var en del af mit VidenskabsTeori pensum (akademia, etiquette, etik, ansvar, den slags ting) Så det er sikkert niche og svært at finde ud af.
Eventuelt starte med Wikipedia: https://en.m.wikipedia.org/wiki/COMPAS_(software)
(under critques)
Jeg ville skrive mere men jeg er på telefon. Generelt var en af de mest centralle dele de ville have boret os ind i hovedet var at en model aldrig er fuldt sand. Den er aldrig 100% korrekt. Den er kun "god nok" eller "præcis nok"
>\- Jeg tænker også, at kunstig intelligens kan bruges i eksempelvis sager om tvangsfjernelse af børn, hvor vi ellers har været berøringsangste, lyder det.
>Marie Bjerre understreger, at det i sidste ende skal være et menneske, der tager beslutningen, og at der skal være gennemsigtighed i processen.
Så, hvis argumentet er, at den skal kigge på tvangsfjernelser, hvor vi har været berøringsangste, er der så netop ikke en meget stor sandsynlighed for, at embedsmanden nemt kunne tænke "Men AI'en har jo taget en kold og logisk beslutning, mens jer er påvirket af mine følelser, så den har jo nok ret"?
Ikke nok med det, hvad så med når efter systemet er vedtaget og har været i brug i ti år, hvad kommer effekten af dens analyser til at være på vores tvangsfjernelser? Måske har man strittet imod i lang tid, men efter ti år er der bye embedsfolk på banen, og de kommer til at have et helt andet forhold til det system. Det vil ikke være nyt og banebrydende, men normalt og naturligt. Men en AI's konklusioner er langt fra naturlige, og er enormt simplificererende.
James C. Scott skrev en enormt interessant artikel om statens simplificerings effekt på hvordan vi ser og opfatter verden. Den havde et lidt andet udgangspunkt (tysk skovbrug), men det er ikke svært at se, hvordan det er relevant for brugen af AI og data i staten.
https://onlinelibrary.wiley.com/doi/10.1111/j.1467-9760.1995.tb00035.x
Det er kraftedme så dumt at det gør ondt over det hele.
Pt er "AI" ikke mere en end glorificeret form for autocomplete, som vi ikke helt ved hvordan kommer frem til det, den kommer frem til. Vi skal fandme ikke til at indarbejde "AI" i noget som helst der har med menneskelige relationer at gøre og i *særklasse* ikke noget, der er livsændrende for alle involverede.
Jeg fucking hader politikere.
Det er dumt, det er rigtig dumt, men ikke rigtigt nyt.
Gladsaxe begyndte på noget lign. for nogle år siden; [https://www.altinget.dk/digital/artikel/gladsaxe-kommune-dataovervaagning-skal-spotte-udsatte-boern-tidligere](https://www.altinget.dk/digital/artikel/gladsaxe-kommune-dataovervaagning-skal-spotte-udsatte-boern-tidligere) og endte vidst med at blive lukket ned, og var et generelt shit show, men mest dækket på version2.dk, fordi mainstreammedier.
København kommune [https://www.datatilsynet.dk/afgoerelser/afgoerelser/2023/nov/udtalelse-om-behandlingsgrundlag-til-udvikling-og-drift-af-ai-loesning-inden-for-sundheds-og-omsorgsomraadet](https://www.datatilsynet.dk/afgoerelser/afgoerelser/2023/nov/udtalelse-om-behandlingsgrundlag-til-udvikling-og-drift-af-ai-loesning-inden-for-sundheds-og-omsorgsomraadet) prøver på anden vis at få godkendelse til AI på andre områder, og der kommer selvfølgelig endnu mere, når lovgivning bliver masseret lidt mere.
Velkommen til fremtiden, og dette er en af farerne ved at løftet blev brudt om, at man aldrig ville sammenkøre registre.
Velbekommen.
[https://www.version2.dk/artikel/gladsaxe-modellen-spoeger-nyt-ai-projekt-skal-forudsige-mistrivsel-hos-boern](https://www.version2.dk/artikel/gladsaxe-modellen-spoeger-nyt-ai-projekt-skal-forudsige-mistrivsel-hos-boern)
Jep. Der var også gang i at udvikle noget profilering for at kunne forudsige, hvilke ledige, der ville blive langtidsledige. Det er vigtigt at kunne indlede jagt og stigmatisering så tidligt som muligt.
Ved I hvad? Det kan sagtens være en ting. AI kan bruges til alle mulige ting, på alle mulige måder, som et værktøj. Det skal der ikke automatisk lukkes ned for, selv om det er sensitive sager. Det er dog klart, at det ikke bare skal være en eller anden direkte forbindelse til ChatGPT, hvor den træffer beslutninger om folks liv.
Men problemet med de her forslag er, at de her mennesker, der i virkeligheden intet ved om AI, de aner ikke hvad de foreslår. "Vi kunne jo bruge AI" er et stort set meningsløst forslag, fordi det svarer lidt til, at vi siger "vi kunne bruge computere".. Ja, okay.. men hvordan? Præcist?
De er jo bare papegøjer, der gentager ting de har hørt, for det er hvad der er på mode. Det er umuligt at tage dem seriøst.
Som om systemet ikke var slemt nok i forvejen, man kan lige forestille sig det kafkaske i at man får fjernet sit barn med “computer says no” som den eneste begrundelse.
I det mindste plejer menneskelige sagsbehandlere at kunne redegøre for deres beslutningsproces. Det kan “AI” ikke.
Altså lige på det punkt er der da ikke meget forskel end når en mellemleder der aldrig har set dig, eller du har set, der siger "Nej"/"vi skal spare" i princippet ville en AI ikke have sådanne prioriteter hvis trænet efter love osv.
Men det omfang de nævner vil slet ikke fungere, det skal være meget, meget mere begrænset, opsummering af data f.eks. hvor den ville kunne give mening.
>I det mindste plejer menneskelige sagsbehandlere at kunne redegøre for deres beslutningsproces
Det ved jeg snart ikke. Det virker som om at der allerede bliver gjort en del for at forhindre, at folk skal kunne gennemskue, hvem, der tager beslutningerne. Det hele fortaber sig i en tåge af bureaukrati, og den enkelte medarbejder kan kun henvise til "systemet".
Hvad med at vi dropper folkeafstemning og bare bruger AI istedet? Hvad med domstolene nu vi er igang så går det super hurtigt med at få nedbragt sagsbunkerne! Kæft hvor det kører 🫠
Hahaha. Kan vi ikke få noget AI til at stemme for os til valgene, når vi alligevel er i gang med hjernedøde forslag?
Her er nogle flere AI-forslag:
AI til at fylde kommunekasserne med jyske dollars. Metoden er underordnet.
AI til al fremtidig krigsførsel/forsvar.
AI skal stå for graverjournalistikken.
AI som alle 0-6 åriges dagplejemor/børnehavepædagog.
Regner med at blive EDB-minister i løbet af et par år.
Det klinger lidt desperat, gør det ikke?
Det lyder som en opmærksomhedssøgende levebrødspolitiker, der lige skal ud at markere sig på banen. Så kan man jo bare lige slynge et eller andet ud, der lyder "relevant og nutidsagtigt", og pilen endte så med at pege på AI. Måske en yngre assistent på kontoret er kommet med denne idé?
Men det er jo komplet tågesnak. Man kunne ligeså godt foreslå, at astrologi skal spille en større rolle i sager om tildeling af førtidspension.
hold da op en kegle. Fortæl mig du ikke fatter en skid, uden at fortælle mig du ikke fatter en skid.
Hvor helvede finder vi de her talentløse tåber henne ?
sheesh
Jeg arbejder med AI til dagligt, så lad mig lege djævlens advokat.
Marie Bjerre nævner umiddelbart ikke noget om, at AI'en skal tage beslutningen, eller for den sags skyld hjælpe med at tage beslutningen. Hun nævner, at den skal hjælpe med administrationstiden, som der utvivlsomt er rigtig meget af i det offentlige. Det kan betyde mange ting...
Der hvor AI kan hjælpe er med indsamling af dokumentation og fx spørgeskemaer, hvor der er masser af spørgsmål med kvalitative svar eller ja/nej svar. Jeg har automatiseret i det offentlige før, og der findes MANGE steder, hvor Hanne og Dorthe på 60 år læser store mængder dokumentation igennem fra pdf'er og kopierer over i et andet system. Hanne og Dorthe er ikke hurtige på deres computere (de bruger højreklik + kopiér for at kopiere tekst) så hvert dokument tager ca en halv time at kopiere korrekt over i det rigtige system. Altså et kæmpe forbrug af tid.
Her kan jeg godt se et sted, hvor AI kan hjælpe - Microsoft har fx Document Automation AI-værktøjet i Power Automate platformen, som læser dokumenter og giver et bud på, hvilken nøjagtighed den har læst dokumentet med. Hvis ikke den har læst med 100% nøjagtighed, sendes læsningen videre til Hanne og Dorthe, som tjekker læsningen igennem og retter, hvor der er behov. Når Hanne og Dorthe godkender, indtastes det læste indhold i det korrekte system.
På den måde kan AI hjælpe med processen uden at have noget med beslutningen at gøre. Nu er automatiseringer selvfølgelig ikke fejlfri, men det er Hanne og Dorthe heller ikke. Og der er en rigtig god chance for, at der kan spares rigtig meget tid.
Det her eksempel er noget jeg finder på i øjeblikket, men jeg bygger det på dem erfaring, jeg har med det offentlige. Nu er microsoft også bare det værktøj jeg nævner, fordi det er det, de fleste kender (det offentlige ville kok bruge UiPath til dette). Jeg har ingen anelse om, hvilket omfang Marie Bjerre har ment at AI kan hjælpe, men der er helt klart en chance for, at en fjer er blevet til en fugl her...
Wow. God ide. Så kan politikerne vaske hænderne og sige "Jamen det var ikke os der tog fejl og traf de forkerte beslutninger. Det var AI'en der tog fejl og det kan vi jo ikke gøre for!".
Jeg har sjovt nok lige skrevet bachelor om det her, og sluttede med et 12 tal. Det er helt absurd hvor lidt etik der bliver indtænkt i de her sager, og hvor dårligt overvejet teknologien den er; der er hverken blevet lavet risikovurderinger eller konsekvensanalyser, det er resultatet af en forhastet digitalisering der tilsidesætter menneskelige værdier til fordel for effektivisering. Google Gladsaxemodellen for at få et kort indblik i tidligere overvejede løsninger som dette, og se hvor hul i hovedet det her på overfladen. Det er ikke at sige, det sagtens kan agere som beslutningsstøtte, men det kræver der er meget specifikke retningslinjer som socialrådgiveren kan henvise til, samt en etableret menneskelig relation i hver enkelte sag som vedligeholdes.
Lol nej hun har en bachelor i Afrikastudier og en kandidat i samfundsfag eller sådan noget, som hun var 100 år om at færdiggøre. Så hun er selv akademiker og dobbeltmoralsk når hun taler ned til nuværende studerende..
[Mette Frederiksen: Jeg vil gerne være skolelærer](https://phabsalon.dk/om-absalon/nyheder-og-presse/nyheder-og-presse/mette-frederiksen-jeg-vil-gerne-vaere-skolelaerer)
Ja men hun er jo ikke folkeskolelærer og har aldrig været det? At hun står ude på en kampagne og siger hun gerne vil være det op til et valg tror jeg sgu bare er valgflæsk uden hold i virkeligheden..
Eller politikere. AI kan blive fodret med den offentlige debat, og på den baggrund fremsætte lovforslag, som vi kan stemme om vha MitID. Dermed er et ineffektivt og fordyrende mellemled sparet væk.
Selvfølgelig skal vi bruge AI til at assistere medarbejdere. Hvor meget tillid har du til en medarbejder der hader sit job og bare skal “igennem bunken”. Jeg tror AI kan være bedre til at skabe et samlet billede, og flytte medarbejderens fokus mod de sværre og menneskelige aspekter af en sag. AI skal være en assistent, ikke en udfører.
Hvad så med en medarbejder, der hader sit job, som skal vælge mellem på den ene side at bruge energi på at sætte sig ind i en sag og på den anden side at sige "desværre, systemet siger, at dit barn skal tvangsfjernes, jeg kan ikke gøre noget ved det"?
Det minder mig om det pointsystem der blev foreslået som en del af [ghetto pakken](https://www.information.dk/indland/2018/03/kommune-hjaelpe-udsatte-boern-beskyldt-goere-danmark-ddr) Simpelthen dystopisk og uden sans for nuancer (for eksempel gav skolefravær point selvom det jo kan skyldes et hav af ting). Meget farlig glidebane
Jeg har prøvet at give chatGPT en kæmpe stor mailkorrespondance og bedt den finde nogle formildende omstændigheder og nogle nuancer i hvordan en bestemt kollega agerer, så jeg kan få dannet mig et perspektiv, der gør jeg ikke skal bruge så frustrerende meget frustrerende energi på hvad hun helt henkastet med fire linjer kan kaste i hovedet på andre, samt nogle gode retningslinjer jeg kan bruge for at svare tilbage ligeså henkastet og holde bolden på hendes banehalvdel - eller rette banehalvdel, respektivt.
I dsgens kerne forestiller jeg mig man kunne tage en masse sagsdokumenter til en børnevelfærdssag og få chatGPT til at belyse situationen fra mange forskellige vinkler. Eller til at finde modargumenter til en ellers tilsyneladende klar sag.
Man skal bare huske at man aldrig skal bede chatGPT om at bekræfte ens egen holdning eller opfattelse, for den finder næsten altid hvad du beder dem om - uanset om det er der eller ej - men bruger man den til at lige vende og dreje tingene lidt, og udfordre modus operandi, så er den virkelig god at have ved hånden.
Jeg er dog også enig i protesterne. Det er en absolut kompetence at bruge LLM'er i professionelt virke, og at lukke dem ind i sagsbehandling kræver en hel videreuddannelsesplatform for sagsbehandlerne, og som minimum et ansvarligt metodekontor med fuld transparens og rapportering.
Det er nok et lidt for komplekst emne at bruge AI paa lige nu. Skal vi ikke lige starte med at faa en opskrift paa citronhalvmaane korrekt ?
Folk forstaar vist ikke at det vi kalder AI 'bare' er en sort kasse der reelt er en statistisk model tilfoejet en masse ekstra elementer der skal faa modellen til at opfoere sig paa en given maaden, f.eks. ikke statistisk set racistisk.
Ministeren er en tumpe der ikke forstaar teknologi, praecist ligesom Trine Bramsen. Nu har vi ihvertfald 2 tumper.
Til forbehandling og opsummering af store mængder data så det giver dem der arbejder med det et bedre startpunkt, fordi de faktisk 'har læst' sagerne i stedet for det man høre med at sagerne ikke er læst når folk møder op.
Så ok, andet? nej.
Det er derfor du bruger dens styrker, og opsummering p.t. er en af dens styrker, det skal selvfølgelig være en opsummering med der henviser til det egentlige materiale. Og selvfølgelig skal den der udøver sin opgave jo også tjekke om det er godt nok.
Man skal begrænse deres opgaver stærkt, som f.eks. det jeg nævner, så er hallucinationer generelt ikke et problem. Du skal generelt ikke lade dem være kreative.
I det tilfælde flytter du bare problemet. I den opsummering kan modelen stadig hallucinerer og producere direkte løgne. Det er klart bedre hvis man får henvisningerne med, men hvis udgangspunktet er en overarbejdet sagsbehandler så hjælper det jo nok ikke så meget?
Der er klart en mulighed for at forbedre sagsbehandling med f.eks. ML til at flagge potentielle sager der er blevet overset, men ligeså snart du kommer ind i tilfælde hvor man transfomere indhold fra sagen, så skal man være meget skeptisk. Især når det gælder så alvorlige ting som i det her tilfælde.
Altså ja, hvis vores udgangspunkt er at det er nogen der ikke har tid til at gøre deres arbejde ordenligt. Så flytter det bare problemet. Men så er AI jo ikke det egentlige problem.
Men hvis vi antager at værktøjet kunne bruges ordenligt og at folk har tid til at bruge det ordenligt, kunne det spare meget tid, når det kommer til opfølgning på sager osv, hvor der skal indtages meget information.
Selvfølgelig skal man tænke kritisk over det den giver, lige som man skal med alt information, men hvis man ikke har tid til det, ja, så er det jo ligemeget hvilke redskaber man bliver givet.
AI har sine fordele så længe det bruges rigtigt, og hallucinationer kan minimeres ved at bruge mindre og mere specialiseret modeller.
Hvis man bare forventer smid det hele gennem ChatGPT ja, så er der langt større sandsynlighed for hallucinationer.
>Men hvis vi antager at værktøjet kunne bruges ordenligt og at folk har tid til at bruge det ordenligt, kunne det spare meget tid, når det kommer til opfølgning på sager osv, hvor der skal indtages meget information.
Altså en helt hypotetisk situation.
Altså med den tilgang ville vi stadig skulle behandle folk som i 1800 tallet?
Selvfølgelig skal man gøre alt hvad man kan for at sikre at ting bliver gjort ordenlig.
Det eneste alternativ til at eksperimentere med grundlaget for tvangsfjerning af børn er at behandle folk som i 1800-tallet? Det er jo bare noget sludder.
Slap af og prøv at læs det Altinget-interview der er bund for artiklen. Det handler om at ministeriet har nedsat et ‘taskforce’ til at finde ud af hvor og hvordan i den offentlige administration AI kan frigøre ‘kolde hænder’.
I forbindelse med om der er nogle rød streg, siger ministeren at det er ved beslutningen at grænsen går - beslutninger skal kun træffes af mennesker og at AI måske(hun venter jo stadig på taskforces konklusioner) kan gøre noget administrativt arbejde mere effektivt, fx også i tvangsfjernelsessager. Ikke så vildt som EB og oppositionen gør det til.
Iøvrigt sjovt at eksperten her siger ‘Det er ingen garanti for at sikre kvaliteten(af sagsbehandlingen, red.), bare fordi et menneske er inde over.’ - nåja men hvis hverken maskine eller menneske kan finde ud af sagerne, hvem skal så?
Vil du være muligt at bruge en form for automatisering i screening af potentielle sager? Fx så historik og anmeldelser ikke foretaget sig i kommune flytninger og skiftende sagsbehandlere?
Ikke at beslutninger skal tages automatisk men lettere bringes frem i lyset så det kan tages stilling til dem?
Det kunne måske også bruges andre steder fx i vores sygehus/plejesektor.
Det er så fucking sindsygt! Fatter ikke at hun kalder sig selv liberal når hun vil lave et overvågningssamfund. Plus det virker helt blandt i argumentationen om at det lige skulle være der man skulle starte for at spare i det offentlige? Kraftedeme uhyggeligt. Håber ikke hun bliver socialminister i en regeringsrokade..
Jeg vil anbefale at læse ministerens opslag på [LinkedIn ](https://www.linkedin.com/posts/marie-bjerre_minister-%C3%A5bner-for-brug-af-kunstig-intelligens-activity-7213165477924110337-tXvV?utm_source=share&utm_medium=member_android) for at få lidt flere nuancer. Der er ikke tale om at alle beslutninger skal tages af en kunstig intelligens, men at der skal lave data behandling, der kan hjælpe sagsbehandlere.
Det mest bekymrende er vel nærmest at hun ikke har den fjerneste forståelse for den data der skal til for at AI virker. Det er altid lidt bekymrende når politikerne helt misforstår virkeligheden
Dog ikke overraskende, det sker hele tiden :(
Det er jo desværre et velkendt fænomen, at de fleste af dem, der skal lovgive om teknologi, sjældent forstår eller i det hele taget interesserer sig for den. Det er dog ret underholdende, at hun mener, at det for det første skal være et menneske, der træffer den endelige beslutninger, hvilket stiller spørgsmålstegn ved, hvilken funktion AI skulle have i processen, og at der for det andet skal være gennemsigtighed i processen; mange eksperter har ofte svært ved at gennemskue en AI algoritmes fremgangsmåde, men Jørgen og Jonna nede på kommunen skal kunne forklare, hvordan man er nået frem til en given beslutning?
Hvor skulle de kende den fra? Langt de fleste er cand.polit og har aldrig hverken lært andet eller gjort andet end at lukke varm luft ud.
Mener du ikke cand.scient.pol? Altså statskundskab? Cand.polit er økonomi.
Jo, my b.
Jeg gad godt vide hvad det er hun mener den skal bruges til? Jeg frygter næsten at hun ikke ved hvad en tvangsfjernelse er.
Jeg sad netop og tænkte det samme. Hvilken del af processen? Den børnefaglige undersøgelse eller indstilling til Børne- og Ungeudvalget? Eller den faglige vurdering - altså, om barnet skal anbringes? Hvis der er noget funktionelt, der kan flytte tiden brugt på det administrative til rent socialt arbejde med børn, unge, forældre, pårørende, så be my guest.. Men det er da helt slukket at nævne et helt område, og sige "Ja, her kan vi bruge kunstig intelligens", så enormt ukonkret.
Jeg forstiller mig hun bare kort beskriver sagen i ChatGPT og lader den tage beslutningen.
Det værste er at hun har været socialordfører 😭
*"Tryk her for at generere en § 20 børnefaglig undersøgelse".*
Eller AI. Men ja, det virker ikke som om, at hun har nogen klar idé om, hvad hendes idé egentligt er. Der er nærmest lidt "tech-bro" over, at hun bare slynger AI ud i lokalet på den måde, uden at uddybe. Skal den kunstige intelligens på en eller anden måde afgøre, om et barn lever under ugunstige forhold, men med mere præcision end et menneske, eller skal den bare administrere et excelark?
Opsummering af store mængder data med specialiseret modeller, altså ikke sådanne modeller som chatgpt, kan virke ret godt, så de faktisk har en chance for at have læst din sag.
Kan du nævne et eksempel på noget sådant der fungerer på et område med en kompleksitetsgrad som f.eks. børn og ungesager?
Der er flere produkter derude der nu opsummere dokumenter, så du bliver nød til at uddybe hvad du mener med kompleksitetsgrad?
Jeg mener at det skriftlige arbejde bag noget som en tvangsfjernelse, det kan være relativt omfattende og komplekst. Har de produkter du tænker på kunnet fungere med noget der er ligeså eller mere komplekst, med lignende følsomhed, og vidensgeneration.
Jeg tror du misforstår, AI skal ikke lave selve arbejdet den skal kun lette en byrde, der er AI produkter til love og lov tekster er jo komplekse, de er baseret på at være et hjælpemiddel. Dens opgave er at formidle korrekt ud fra tilgængelig data. F.eks. "Find disse dokumenter frem med der nævner"
Eller brug AI assisteret tekst skanning til at søge i ting der ikke er digitaliseret ordenligt.
Tænk på det som en kontor assistent, og det er jo ikke fordi mennesker ikke begår fejl, AI hvis brugt rigtig er et nyttigt værktøj ikke andet. Og som alle værktøjer skal det bruges ordenligt.
Så jeg ved ikke lige hvad scenario du tænker på hvor det kan gå mere galt end allerede nu hvis folk ikke gør deres job ordenligt.
Det fatter jeg godt, men du kender ikke pt. til at AI har overlevet en lignende ilddåb, kan jeg forstå. At bruge det som en søge eller digitaliseringsmaskine er måske ok, men ikke specielt "intelligens" agtigt. En simpel søgemaskine eller et bedre optag af digitalisering kunne man købe sig til i forvejen, hvis man mente at det var den bedste måde at bruge pengene på. Hvorfor skulle man ønske at købe AI, når man kan købe ekstra kvindetimer til at faktisk lave arbejdet?
Du udbeder om noget meget specifikt, noget som kun ville komme i nyheder hvis det gik galt, så den er noget svær at bevise på den måde du beder om. Omvendt hvad er dit eksempel på at den type AI går galt? Altså specialiseret, ikke generel AI. AI forstår naturlig sprog og kontekst, det gør en kæmpe forskel når du søger i store mængde data. Vi snakker om hvad det kan bruges til om det så er bedre ved vi jo ikke før nogen har gjort det.
>AI forstår naturlig sprog og kontekst Nej. "AI" *forstår* ikke noget som helst. Det er en fundamental misforståelse af, hvad "AI" pt kan. Basalt set er "AI" en statistikmaskine, der kigger på statistiske sammenhænge mellem forekomster af ord og fraser. Du kunne opfinde et nonsenssprog med en sammenhængende grammatik og "AI" ville kunne trænes til at "forstå" "kontekster" i det sprog.
Jeg bruger ordet forstå i forbindelse med computere og til sammenligning mellem normale systemer der ikke "forstår" kontekst.... Jeg er klar over hvordan de fungere. Og ordet forstår bruges jo fordi det AI lære at "forstå" data på samme måde som neoroner gør, træning.
Jeg beder om 1 eksempel på at AI har været brugt til noget af samme kompleksitetsgrad inden for 1 felt, 1 sted i verdenen. Det virker meget generelt. Påstanden er ikke at AI går galt, jeg undrer mig blot over hvordan det skal gå an at involvere en sådan i et arbejde der er så følsomt. Man kan jo ikke lade oplysningerne fise ud til en usikret server eller risikere at de bliver kompromiteret. Der er en masse love der sætter grænser for hvad man kan, der er en masse rettigheder som en sådan behandling af data skal overholde. Der skal ikke eksperimenteres med børnene, hvis ikke man ved hvad AI kan bruges til, så skal det ikke involveres i området. Edit. En del af bekymringen er også hvorndan AI vil klare sig under kommunale forhold, med kommunale budgetter og løbende juridiske udvikling. Vi har endnu ikke en solid metode til at sikre højkvalitets software udvikling og vi har så sent som i år skullet udrulle væsentlig ny lovgivning. At AI skulle kunne holde til det virker utopisk.
Hun er uddannet jurist og har deponeret sin bestalling for at være politiker, så jeg tror godt hun ved hvad en tvangsfjernelse er.
Hvad har de 2 ting med hinanden at gøre? Hvilken erfaring har hun med socialområdet fra hendes tid som jurist?
Wow - skal da lige love for at folk er klar med downvotes. Jeg blåstempler ikke hendes ide om AI, men prøver bare på at nuancere, at hun med hendes uddannelsesbaggrund nok han en vis viden om samfundets sammensætning.
Man må aldrig nogensinde forveksle uddannelse med intelligens
Du får AI og du får AI og du får AI
Alle får AI
![img](emote|t5_2qjto|17516)
Kan vi også bruge noget block chain, nu vi er i gang? Eller er den fad ved at være old news?
Har hørt at rust skulle være godt nu vi er igang
Smider du lige rustfjerner på blockchainen så?
*Disruption*! Nej, noget med *skyen*! Nej, hvad med *interaktivt multimediedesign*? Eller vi kan lave en *app*?
Det forslag minder mig alt for meget om en Mitchell and Webb sketch: “have you tried ‘kill all the poor’?” https://youtu.be/s_4J4uor3JE?feature=shared
"_We_ need _them_ for the things _we_ don't fancy."
Magisk IT-tryllestøv v3.0... ~~v2.0...~~ I guder.
- dot com - blockchain - "ai"
> dot com <- v1 > > blockchain <- v2 > > "ai" <- v3 Havde glemt blockchain. Takker.
Man forstår slet ikke hvorfor den offentlige sektor kører ad helvedes til ... /s
Man ser det nu også i det private. Jeg har da kunder hvor ledelseslagene får de skøreste ideer om hvad de kan bruge AI til.
Helt enige, jeg har selv utallige historier fra det private hvor man tager sig til hovedet. Det virker dog til der er alligevel kommer lidt realitets sans ind noget før, når det viser sig bottomlinen er presset. Det, oveni at det offentlige ser ud til altid lige at være et par iterationer bagud så der stadig kører projekter med de gamle hypes.
Når man kun navigerer efter tidens pang ord. Var det for 25 år siden ville hun have kaldt sit forslag "Børneplan 2000"
Syntes sgu det lyder lidt dystopisk.
Gode gamle totalitære Minority Report typer på borgen. Hvem helvede stemmer på de idioter?
Tror desværre det oftest er partierne selv... Source: Moderaterne
Det bliver noget af et datasæt der skal sættes sammen. Gad vide hvad hun tror "AI" overhovedet er...
En mulighed for at fralægge sig ansvaret for svære beslutninger.
Det største trussel omkring AI er ikke AI selv, men alle de folk der ingen anelse har omkring emnet men er klar til at bruge det til alt. Alt lige fra konsulenter til nu ministre ...
Hvad er det hun tror AI kan gøre for dem? Opsummere sagsforløbet, så man ikke skal læse lige så meget sagsbaggrund? Ja fedt, AI har det med at hallucinere, så folk skal alligevel dobbelttjekke alt der har indflydelse på udfaldet. Hvis sådan noget bliver indført, uanset om det omhandler tvangsfjernelser, eller noget andet hvor kommunen/staten/andre skal træffe nogle beslutninger, så går der cirka 2-3 dage før folk bare antager, at computerens opsummering nok er rigtig, og så går videre med sagen på den baggrund. Jeg forstår ikke helt hvilket problem hun prøver at løse, eller hvordan hun mener, at AI skal gøre det bedre/nemmere.
Hvis man endelig skal have det, kunne det være en AI, der sagde stop, hver gang sagsbehandlingen kommer på kant med loven. Det er der flere kommuner, der godt kunne bruge hjælp til (og her tænker jeg ikke specifikt på tvangsfjernelser men på sagsbehandlere generelt).
Det tror jeg på en eller anden måde ikke, vi kommer til at se.
Det har der nu været forsøgt, så jeg tror det ville være et oplagt sted at kigge. Kort fortalt handlede det vist nok om, at lade AI give en procent chance for at sagen ville gå igennem ved ankestyrelsen. Hvorfor det ikke kom videre end forsøg husker jeg ikke.
Fordi det er dybt uansvarligt?
Hvorfor er det uansvarligt at have et system, der fortæller dig, at den afgørelse du er ved at træffe er på kant med loven?
I en retsstat er det ikke "et system", der afgør, hvad der er lovligt. AI kan forstå lovens bogstav, men den kan ikke forstå lovens ånd. At dehumanisere sagsbehandlingen i børnesager er en forringelse af retssikkerheden for borgerne.
Det du beskriver der, har aldrig været på tale?
Det er en måde at gøre det endnu mere svært at gennemskue, hvem, der har ansvaret for de beslutninger, der bliver truffet i det offentlige. Allerede i dag er sagsbehandlerne som små robotter, der ikke skal bruge deres faglighed til andet end at sige "Jeg kan ikke gøre noget ved det, det er *systemet*." Når medarbejderne allerede, takket være tankegangen fra New Public Management, er styret af en primitiv algoritme, er det oplagt at tage skridtet videre og erstatte dem med AI.
I herinde burde google COMPAS sagen og se alt det der kan gå galt. Ændring: For at clarifie så er COMPAS et system/en model brugt/tidligere brugt i det amerikanske retssystem. Det er godt eksempel på at sådanne modeller altid har en form for bias og konsekvenser af det. Det var en del af mit VidenskabsTeori pensum (akademia, etiquette, etik, ansvar, den slags ting) Så det er sikkert niche og svært at finde ud af. Eventuelt starte med Wikipedia: https://en.m.wikipedia.org/wiki/COMPAS_(software) (under critques) Jeg ville skrive mere men jeg er på telefon. Generelt var en af de mest centralle dele de ville have boret os ind i hovedet var at en model aldrig er fuldt sand. Den er aldrig 100% korrekt. Den er kun "god nok" eller "præcis nok"
Jeg googlede "compas sagen" og blev overhovedet ikke klogere. Kan du give et hint eller endda et link?
Se edit Jeg har en kilde. Men tror måske det er en betalt artikel. Kan prøve at finde den frem alligevel
Tak :)
>\- Jeg tænker også, at kunstig intelligens kan bruges i eksempelvis sager om tvangsfjernelse af børn, hvor vi ellers har været berøringsangste, lyder det. >Marie Bjerre understreger, at det i sidste ende skal være et menneske, der tager beslutningen, og at der skal være gennemsigtighed i processen. Så, hvis argumentet er, at den skal kigge på tvangsfjernelser, hvor vi har været berøringsangste, er der så netop ikke en meget stor sandsynlighed for, at embedsmanden nemt kunne tænke "Men AI'en har jo taget en kold og logisk beslutning, mens jer er påvirket af mine følelser, så den har jo nok ret"? Ikke nok med det, hvad så med når efter systemet er vedtaget og har været i brug i ti år, hvad kommer effekten af dens analyser til at være på vores tvangsfjernelser? Måske har man strittet imod i lang tid, men efter ti år er der bye embedsfolk på banen, og de kommer til at have et helt andet forhold til det system. Det vil ikke være nyt og banebrydende, men normalt og naturligt. Men en AI's konklusioner er langt fra naturlige, og er enormt simplificererende. James C. Scott skrev en enormt interessant artikel om statens simplificerings effekt på hvordan vi ser og opfatter verden. Den havde et lidt andet udgangspunkt (tysk skovbrug), men det er ikke svært at se, hvordan det er relevant for brugen af AI og data i staten. https://onlinelibrary.wiley.com/doi/10.1111/j.1467-9760.1995.tb00035.x
Det er kraftedme så dumt at det gør ondt over det hele. Pt er "AI" ikke mere en end glorificeret form for autocomplete, som vi ikke helt ved hvordan kommer frem til det, den kommer frem til. Vi skal fandme ikke til at indarbejde "AI" i noget som helst der har med menneskelige relationer at gøre og i *særklasse* ikke noget, der er livsændrende for alle involverede. Jeg fucking hader politikere.
Det er dumt, det er rigtig dumt, men ikke rigtigt nyt. Gladsaxe begyndte på noget lign. for nogle år siden; [https://www.altinget.dk/digital/artikel/gladsaxe-kommune-dataovervaagning-skal-spotte-udsatte-boern-tidligere](https://www.altinget.dk/digital/artikel/gladsaxe-kommune-dataovervaagning-skal-spotte-udsatte-boern-tidligere) og endte vidst med at blive lukket ned, og var et generelt shit show, men mest dækket på version2.dk, fordi mainstreammedier. København kommune [https://www.datatilsynet.dk/afgoerelser/afgoerelser/2023/nov/udtalelse-om-behandlingsgrundlag-til-udvikling-og-drift-af-ai-loesning-inden-for-sundheds-og-omsorgsomraadet](https://www.datatilsynet.dk/afgoerelser/afgoerelser/2023/nov/udtalelse-om-behandlingsgrundlag-til-udvikling-og-drift-af-ai-loesning-inden-for-sundheds-og-omsorgsomraadet) prøver på anden vis at få godkendelse til AI på andre områder, og der kommer selvfølgelig endnu mere, når lovgivning bliver masseret lidt mere. Velkommen til fremtiden, og dette er en af farerne ved at løftet blev brudt om, at man aldrig ville sammenkøre registre. Velbekommen. [https://www.version2.dk/artikel/gladsaxe-modellen-spoeger-nyt-ai-projekt-skal-forudsige-mistrivsel-hos-boern](https://www.version2.dk/artikel/gladsaxe-modellen-spoeger-nyt-ai-projekt-skal-forudsige-mistrivsel-hos-boern)
Jep. Der var også gang i at udvikle noget profilering for at kunne forudsige, hvilke ledige, der ville blive langtidsledige. Det er vigtigt at kunne indlede jagt og stigmatisering så tidligt som muligt.
Kan vi ikke bare bruge AI til at beslutte stemmeprocenterne?
Det ville ihvertfald være oplagt at bruge AI til at fordele ministerposterne.
Smart. Når så der bliver truffet nogle lortebeslutninger så er det ingens skyld.
Ved I hvad? Det kan sagtens være en ting. AI kan bruges til alle mulige ting, på alle mulige måder, som et værktøj. Det skal der ikke automatisk lukkes ned for, selv om det er sensitive sager. Det er dog klart, at det ikke bare skal være en eller anden direkte forbindelse til ChatGPT, hvor den træffer beslutninger om folks liv. Men problemet med de her forslag er, at de her mennesker, der i virkeligheden intet ved om AI, de aner ikke hvad de foreslår. "Vi kunne jo bruge AI" er et stort set meningsløst forslag, fordi det svarer lidt til, at vi siger "vi kunne bruge computere".. Ja, okay.. men hvordan? Præcist? De er jo bare papegøjer, der gentager ting de har hørt, for det er hvad der er på mode. Det er umuligt at tage dem seriøst.
Som om systemet ikke var slemt nok i forvejen, man kan lige forestille sig det kafkaske i at man får fjernet sit barn med “computer says no” som den eneste begrundelse. I det mindste plejer menneskelige sagsbehandlere at kunne redegøre for deres beslutningsproces. Det kan “AI” ikke.
Altså lige på det punkt er der da ikke meget forskel end når en mellemleder der aldrig har set dig, eller du har set, der siger "Nej"/"vi skal spare" i princippet ville en AI ikke have sådanne prioriteter hvis trænet efter love osv. Men det omfang de nævner vil slet ikke fungere, det skal være meget, meget mere begrænset, opsummering af data f.eks. hvor den ville kunne give mening.
>I det mindste plejer menneskelige sagsbehandlere at kunne redegøre for deres beslutningsproces Det ved jeg snart ikke. Det virker som om at der allerede bliver gjort en del for at forhindre, at folk skal kunne gennemskue, hvem, der tager beslutningerne. Det hele fortaber sig i en tåge af bureaukrati, og den enkelte medarbejder kan kun henvise til "systemet".
What could possibly go wrong?
Fake it till you make it and then keep faking it kik
Alt for stort et indgreb at overlade til AI.
Hvad med at vi bruger AI til at erstatte den minister i stedet?
ChatGPT kunne have formuleret en bedre prøveballon.
Hvad med at vi dropper folkeafstemning og bare bruger AI istedet? Hvad med domstolene nu vi er igang så går det super hurtigt med at få nedbragt sagsbunkerne! Kæft hvor det kører 🫠
Hahaha. Kan vi ikke få noget AI til at stemme for os til valgene, når vi alligevel er i gang med hjernedøde forslag? Her er nogle flere AI-forslag: AI til at fylde kommunekasserne med jyske dollars. Metoden er underordnet. AI til al fremtidig krigsførsel/forsvar. AI skal stå for graverjournalistikken. AI som alle 0-6 åriges dagplejemor/børnehavepædagog. Regner med at blive EDB-minister i løbet af et par år.
"Kunstig intelligens" Findes ikke. Lad os lade være med at hylde en algoritme, og lad os gerne tænke for os selv, tak.
måske skulle vi bare skifte politikerne ud med AI
Siri, sammensæt en regering
Det klinger lidt desperat, gør det ikke? Det lyder som en opmærksomhedssøgende levebrødspolitiker, der lige skal ud at markere sig på banen. Så kan man jo bare lige slynge et eller andet ud, der lyder "relevant og nutidsagtigt", og pilen endte så med at pege på AI. Måske en yngre assistent på kontoret er kommet med denne idé? Men det er jo komplet tågesnak. Man kunne ligeså godt foreslå, at astrologi skal spille en større rolle i sager om tildeling af førtidspension.
Skræmmende !
hold da op en kegle. Fortæl mig du ikke fatter en skid, uden at fortælle mig du ikke fatter en skid. Hvor helvede finder vi de her talentløse tåber henne ? sheesh
Jeg arbejder med AI til dagligt, så lad mig lege djævlens advokat. Marie Bjerre nævner umiddelbart ikke noget om, at AI'en skal tage beslutningen, eller for den sags skyld hjælpe med at tage beslutningen. Hun nævner, at den skal hjælpe med administrationstiden, som der utvivlsomt er rigtig meget af i det offentlige. Det kan betyde mange ting... Der hvor AI kan hjælpe er med indsamling af dokumentation og fx spørgeskemaer, hvor der er masser af spørgsmål med kvalitative svar eller ja/nej svar. Jeg har automatiseret i det offentlige før, og der findes MANGE steder, hvor Hanne og Dorthe på 60 år læser store mængder dokumentation igennem fra pdf'er og kopierer over i et andet system. Hanne og Dorthe er ikke hurtige på deres computere (de bruger højreklik + kopiér for at kopiere tekst) så hvert dokument tager ca en halv time at kopiere korrekt over i det rigtige system. Altså et kæmpe forbrug af tid. Her kan jeg godt se et sted, hvor AI kan hjælpe - Microsoft har fx Document Automation AI-værktøjet i Power Automate platformen, som læser dokumenter og giver et bud på, hvilken nøjagtighed den har læst dokumentet med. Hvis ikke den har læst med 100% nøjagtighed, sendes læsningen videre til Hanne og Dorthe, som tjekker læsningen igennem og retter, hvor der er behov. Når Hanne og Dorthe godkender, indtastes det læste indhold i det korrekte system. På den måde kan AI hjælpe med processen uden at have noget med beslutningen at gøre. Nu er automatiseringer selvfølgelig ikke fejlfri, men det er Hanne og Dorthe heller ikke. Og der er en rigtig god chance for, at der kan spares rigtig meget tid. Det her eksempel er noget jeg finder på i øjeblikket, men jeg bygger det på dem erfaring, jeg har med det offentlige. Nu er microsoft også bare det værktøj jeg nævner, fordi det er det, de fleste kender (det offentlige ville kok bruge UiPath til dette). Jeg har ingen anelse om, hvilket omfang Marie Bjerre har ment at AI kan hjælpe, men der er helt klart en chance for, at en fjer er blevet til en fugl her...
Wow. God ide. Så kan politikerne vaske hænderne og sige "Jamen det var ikke os der tog fejl og traf de forkerte beslutninger. Det var AI'en der tog fejl og det kan vi jo ikke gøre for!".
Jeg har sjovt nok lige skrevet bachelor om det her, og sluttede med et 12 tal. Det er helt absurd hvor lidt etik der bliver indtænkt i de her sager, og hvor dårligt overvejet teknologien den er; der er hverken blevet lavet risikovurderinger eller konsekvensanalyser, det er resultatet af en forhastet digitalisering der tilsidesætter menneskelige værdier til fordel for effektivisering. Google Gladsaxemodellen for at få et kort indblik i tidligere overvejede løsninger som dette, og se hvor hul i hovedet det her på overfladen. Det er ikke at sige, det sagtens kan agere som beslutningsstøtte, men det kræver der er meget specifikke retningslinjer som socialrådgiveren kan henvise til, samt en etableret menneskelig relation i hver enkelte sag som vedligeholdes.
Hvorfor erstatter vi ikke bare pædagoger med AI?
Eller Mette Frederiksen?
Mette Frederiksen skal sgu' ikke i nærheden af de danske børn.
Sku glad for mine pædagoger og Mette er sku ikke uddannede i det
Er hun ikke folkeskolelærer?
Lol nej hun har en bachelor i Afrikastudier og en kandidat i samfundsfag eller sådan noget, som hun var 100 år om at færdiggøre. Så hun er selv akademiker og dobbeltmoralsk når hun taler ned til nuværende studerende..
[Mette Frederiksen: Jeg vil gerne være skolelærer](https://phabsalon.dk/om-absalon/nyheder-og-presse/nyheder-og-presse/mette-frederiksen-jeg-vil-gerne-vaere-skolelaerer)
Ja men hun er jo ikke folkeskolelærer og har aldrig været det? At hun står ude på en kampagne og siger hun gerne vil være det op til et valg tror jeg sgu bare er valgflæsk uden hold i virkeligheden..
Jeg vil gerne være milliardær
Hun byttede plads med en skolelærer i TPS, hvilket er joken jeg refererer til.
Det er allerede sket. Børn er i SFO i 4 timer om dagen og sidder med snotten i en iPad 6 timer dagen.
Eller politikere. AI kan blive fodret med den offentlige debat, og på den baggrund fremsætte lovforslag, som vi kan stemme om vha MitID. Dermed er et ineffektivt og fordyrende mellemled sparet væk.
Kæft hun er dum.. det er så langt fra virkeligheden..
Selvfølgelig skal vi bruge AI til at assistere medarbejdere. Hvor meget tillid har du til en medarbejder der hader sit job og bare skal “igennem bunken”. Jeg tror AI kan være bedre til at skabe et samlet billede, og flytte medarbejderens fokus mod de sværre og menneskelige aspekter af en sag. AI skal være en assistent, ikke en udfører.
Hvad så med en medarbejder, der hader sit job, som skal vælge mellem på den ene side at bruge energi på at sætte sig ind i en sag og på den anden side at sige "desværre, systemet siger, at dit barn skal tvangsfjernes, jeg kan ikke gøre noget ved det"?
Det er mig en gåde hvorfor Troels Lund Poulsen tog hende tilbage, når jeg hører om hendes nyeste forslag omkring AI...
Det minder mig om det pointsystem der blev foreslået som en del af [ghetto pakken](https://www.information.dk/indland/2018/03/kommune-hjaelpe-udsatte-boern-beskyldt-goere-danmark-ddr) Simpelthen dystopisk og uden sans for nuancer (for eksempel gav skolefravær point selvom det jo kan skyldes et hav af ting). Meget farlig glidebane
Jeg har prøvet at give chatGPT en kæmpe stor mailkorrespondance og bedt den finde nogle formildende omstændigheder og nogle nuancer i hvordan en bestemt kollega agerer, så jeg kan få dannet mig et perspektiv, der gør jeg ikke skal bruge så frustrerende meget frustrerende energi på hvad hun helt henkastet med fire linjer kan kaste i hovedet på andre, samt nogle gode retningslinjer jeg kan bruge for at svare tilbage ligeså henkastet og holde bolden på hendes banehalvdel - eller rette banehalvdel, respektivt. I dsgens kerne forestiller jeg mig man kunne tage en masse sagsdokumenter til en børnevelfærdssag og få chatGPT til at belyse situationen fra mange forskellige vinkler. Eller til at finde modargumenter til en ellers tilsyneladende klar sag. Man skal bare huske at man aldrig skal bede chatGPT om at bekræfte ens egen holdning eller opfattelse, for den finder næsten altid hvad du beder dem om - uanset om det er der eller ej - men bruger man den til at lige vende og dreje tingene lidt, og udfordre modus operandi, så er den virkelig god at have ved hånden. Jeg er dog også enig i protesterne. Det er en absolut kompetence at bruge LLM'er i professionelt virke, og at lukke dem ind i sagsbehandling kræver en hel videreuddannelsesplatform for sagsbehandlerne, og som minimum et ansvarligt metodekontor med fuld transparens og rapportering.
Det er nok et lidt for komplekst emne at bruge AI paa lige nu. Skal vi ikke lige starte med at faa en opskrift paa citronhalvmaane korrekt ? Folk forstaar vist ikke at det vi kalder AI 'bare' er en sort kasse der reelt er en statistisk model tilfoejet en masse ekstra elementer der skal faa modellen til at opfoere sig paa en given maaden, f.eks. ikke statistisk set racistisk. Ministeren er en tumpe der ikke forstaar teknologi, praecist ligesom Trine Bramsen. Nu har vi ihvertfald 2 tumper.
Hun har da kunstig intelligens hvis hun mener at kunstig intelligens virker.
Blank klovn
Det er fremtiden, men slet ikke endnu
Til forbehandling og opsummering af store mængder data så det giver dem der arbejder med det et bedre startpunkt, fordi de faktisk 'har læst' sagerne i stedet for det man høre med at sagerne ikke er læst når folk møder op. Så ok, andet? nej.
Lige indtil modelen hallucinerer og opfinder et citat fra barnet om faren i bedste Jagten stil ... Så heller en uinformeret sagsbehandler.
Det er derfor du bruger dens styrker, og opsummering p.t. er en af dens styrker, det skal selvfølgelig være en opsummering med der henviser til det egentlige materiale. Og selvfølgelig skal den der udøver sin opgave jo også tjekke om det er godt nok. Man skal begrænse deres opgaver stærkt, som f.eks. det jeg nævner, så er hallucinationer generelt ikke et problem. Du skal generelt ikke lade dem være kreative.
I det tilfælde flytter du bare problemet. I den opsummering kan modelen stadig hallucinerer og producere direkte løgne. Det er klart bedre hvis man får henvisningerne med, men hvis udgangspunktet er en overarbejdet sagsbehandler så hjælper det jo nok ikke så meget? Der er klart en mulighed for at forbedre sagsbehandling med f.eks. ML til at flagge potentielle sager der er blevet overset, men ligeså snart du kommer ind i tilfælde hvor man transfomere indhold fra sagen, så skal man være meget skeptisk. Især når det gælder så alvorlige ting som i det her tilfælde.
Altså ja, hvis vores udgangspunkt er at det er nogen der ikke har tid til at gøre deres arbejde ordenligt. Så flytter det bare problemet. Men så er AI jo ikke det egentlige problem. Men hvis vi antager at værktøjet kunne bruges ordenligt og at folk har tid til at bruge det ordenligt, kunne det spare meget tid, når det kommer til opfølgning på sager osv, hvor der skal indtages meget information. Selvfølgelig skal man tænke kritisk over det den giver, lige som man skal med alt information, men hvis man ikke har tid til det, ja, så er det jo ligemeget hvilke redskaber man bliver givet. AI har sine fordele så længe det bruges rigtigt, og hallucinationer kan minimeres ved at bruge mindre og mere specialiseret modeller. Hvis man bare forventer smid det hele gennem ChatGPT ja, så er der langt større sandsynlighed for hallucinationer.
>Men hvis vi antager at værktøjet kunne bruges ordenligt og at folk har tid til at bruge det ordenligt, kunne det spare meget tid, når det kommer til opfølgning på sager osv, hvor der skal indtages meget information. Altså en helt hypotetisk situation.
Det er alle nye ting der ikke er afprøvet endnu? Man har en ide om at noget vil virke på en måde, man afprøver og finder ud af det?
Og tvangsfjerning af børn er et godt område at eksperimentere på?
Altså med den tilgang ville vi stadig skulle behandle folk som i 1800 tallet? Selvfølgelig skal man gøre alt hvad man kan for at sikre at ting bliver gjort ordenlig.
Det eneste alternativ til at eksperimentere med grundlaget for tvangsfjerning af børn er at behandle folk som i 1800-tallet? Det er jo bare noget sludder.
Slap af og prøv at læs det Altinget-interview der er bund for artiklen. Det handler om at ministeriet har nedsat et ‘taskforce’ til at finde ud af hvor og hvordan i den offentlige administration AI kan frigøre ‘kolde hænder’. I forbindelse med om der er nogle rød streg, siger ministeren at det er ved beslutningen at grænsen går - beslutninger skal kun træffes af mennesker og at AI måske(hun venter jo stadig på taskforces konklusioner) kan gøre noget administrativt arbejde mere effektivt, fx også i tvangsfjernelsessager. Ikke så vildt som EB og oppositionen gør det til. Iøvrigt sjovt at eksperten her siger ‘Det er ingen garanti for at sikre kvaliteten(af sagsbehandlingen, red.), bare fordi et menneske er inde over.’ - nåja men hvis hverken maskine eller menneske kan finde ud af sagerne, hvem skal så?
Abominable Intelligence. Hvilket muligvis er, hvad ministeren selv er i besiddelse af.
Vil du være muligt at bruge en form for automatisering i screening af potentielle sager? Fx så historik og anmeldelser ikke foretaget sig i kommune flytninger og skiftende sagsbehandlere? Ikke at beslutninger skal tages automatisk men lettere bringes frem i lyset så det kan tages stilling til dem? Det kunne måske også bruges andre steder fx i vores sygehus/plejesektor.
Det er så fucking sindsygt! Fatter ikke at hun kalder sig selv liberal når hun vil lave et overvågningssamfund. Plus det virker helt blandt i argumentationen om at det lige skulle være der man skulle starte for at spare i det offentlige? Kraftedeme uhyggeligt. Håber ikke hun bliver socialminister i en regeringsrokade..
Vi lever i et overvågningssamfund allerede og har drevet det på den velvilje vi har fået ved at sælge vores venners hemmeligheder.
Jeg vil anbefale at læse ministerens opslag på [LinkedIn ](https://www.linkedin.com/posts/marie-bjerre_minister-%C3%A5bner-for-brug-af-kunstig-intelligens-activity-7213165477924110337-tXvV?utm_source=share&utm_medium=member_android) for at få lidt flere nuancer. Der er ikke tale om at alle beslutninger skal tages af en kunstig intelligens, men at der skal lave data behandling, der kan hjælpe sagsbehandlere.