Episodios

  • Denne gang skal vi dykke ned i hvordan man forholder sig til implementeringen af generativ AI i organisationer og virksomheder, og ikke mindst hvordan man i denne sammenhæng også bør reflektere kritisk over hvilken værdi, teknologien giver – både når det handler om effektivitet og optimering, og måske især når det handler om trivsel og mening med arbejdet.

    Vi har besøg af Louise Harder Fischer fra ITU og Martin Lassen-Vernal fra Teknik- og Miljø-forvaltningen i Københavns Kommune som har arbejdet sammen på et projekt som ikke bare undersøger forvaltningens forsøg med generativ AI, men også har lavet en model for hvordan man andre steder kan arbejde med implementeringen, vurderingen og den fortsatte evaluering af de AI-værktøjer og processer man indfører.

    Det er, med deres egne ord, en lille smule langhåret, men der er afgjort også masser af eksempler og gode råd, som man forhåbentlig kan tage med sig ud i sin egen organisation!

    I AI Siden Sidst skal det blandt andet handle om søge-AI, knap-så-supercomputere og en AI, der måske kan hjælpe en splittet befolkning med at finde enighed…

    Lyt med 🤖

    LINKS

    NYHEDER:

    DK politi bruger AI til at lave CSAM til brug i efterforskning og jagt på børneporno-forbrydere | DRGefion super-AI-computeren som måske ikke er så super alligevel? | Version 2DeepMind og forsøg med Habermas-AI som mediator ved grundlæggende politiske uenigheder | Ars TechincaOpenAI har lanceret ChatGPT Search til probrugere | The VergeMeta har også planer om AI-søgning | The VergeMen søgsmålene står i kø til AI-søgemaskiner som Perplexity | The VergeApple Intelligence i EU næste år | 9to5macKan dog prøves med krumspring… | ComputerworldFrankrig sagsøges for brug af AI ifm. uddeling af sociale ydelser | Version 2Startup bruger fotoner at transportere information og kan spare energi ved træning og brug af AI/LLM | eeNews Europe

    ITU OG TEKNIK- OG MILJØ-FORVALTNINGENS PROJEKT:

    Lektor Louise Harder Fischer, ITUMartin Lassen-Vernal, Teknik- og Miljø-forvaltningen, KKITU-artikel om meningsfuld og genAI i forvaltningen – se modellenHvad er sociotekniske systemer?
  • Selvom talen hurtigt falder på dræber-robotter, så finder den militære brug af AI finder sted i et bredt spektrum. Det handler også “bare” om at bruge ChatGPT til at skrive breve eller lidt mere alvorligt om at bruge avancerede algoritmer til at analysere luftfotos for potentielle trusler.

    Men det handler altså også om mere eller mindre autonome våben, der allerede forlængst er i anvendelse i krig – og det er naturligvis noget, der virkelig deler vandene.

    Et eksempel er de ukrainske Saker Scout-droner, der indenfor visse rammer selv kan vælge og angribe mål på jorden.

    Jeg har talt med adjunkt Daniel Møller Ølgaard fra Forsvarsakademiet om nogle af de mange udfordringer ved både den principielle og praktisk anvendelse af AI i militæret.

    Det handler om alt fra basale tekniske problemer til spørgsmål om folkeret og hvordan man måske giver afkald på tidligere tiders nationale sikkerhed, når man lægger centrale funktioner i militæret i hænderne på udenlandske techgiganter…

    Lyt med 🤖

    LINKS

    NYHEDER

    Den oprindelige Apple-artikel om LLM’erns udfordringer | arXivApple er to år bagefter med AI | 9to5 MacPenguin Random House vil ikke lade værker blive brugt til AI-træning uden aftalerGoogle laver aftale med atomreaktor-startup om strøm til datacentreNobelpriser til AI-forskning deler vandene

    MILITÆR AI

    Daniel Møller Ølgaard, FAK | LinkedInArtikel om Lavender-systemet | 972 MagazineOm autonome våben | Scientific AmericanAI-dronefartøjer i det amerikanske luftvåben | NY TimesSmart krig – bog fra 2021 om AI i krig – kan lånes på biblioteketForskning i autonome våben på SDU: AutoNormsLyt også en episode af podcasten Krigsskolen med Daniel – om algoritmer og krig: KrigsskolenStop Killer Robots - Less Autonomy, More humanity.Aktuelt arbejde med regulering af autonome våben i FN
  • ¿Faltan episodios?

    Pulsa aquí para actualizar resultados

  • Der er ingen tvivl om, at datacentrenes computere og deres kolossale energiforbrug er en af af de største aktuelle udfordringer med især generativ AI.

    Men måske lurer en helt ny type af computere i baggrunden, som potentielt kan være med til at løse problemet. De kaldes neuromorfiske computere, og bliver bygget efter samme principper som biologiske hjerner – og de er ekstremt energieffektive, sammenlignet med de computere vi kender.

    Dagens gæst er Jens Egholm Pedersen, Phd-studerende ved KTH i Stockholm. Jens’ forskningsfokus drejer sig især om hvordan man kan lave programmeringssprog og andre værktøjer til neuromorfiske computere – når de så småt begynder at blive virkelighed…

    I Siden Sidst skal vi høre om det nye danske grundforskningscenter TEXT, om YouTube-AI-licenser, og så er der selvfølgelig mere ballade i OpenAI.

    Lyt med 🤖

    LINKS

    NYHEDER

    TEXT – nyt grundforskningscenter skal udforske dansk tekst, sprog og kulturTEXT udspringer af CLAI – Center for Language Generation and AIHør episoden om CLAI: Ord og maskiner | AI Denmark | Episode 8OpenAI-balladen fortsætter | The VergeLicensering af YouTube-videoer til AI-træning | Wired

    NEUROMORPHIC COMPUTING

    Jens Egholm PedersenLink til en af Jens’ præsentationer, der viser hvordan et ‘event-baseret’ kamera fungererJens’ artikel om Neuromorphic Intermediate Representation – interoperabilitet mellem hjerneinspirerede computereNature-artikel om neuromorfiske computereInnateras ekstremt energieffektive chipsIntel har lavet neurochippen Loihi 2Den neuromorfiske BrainChip kommer fra Akida
  • Det er ikke nogen ny idé at bruge kunstig intelligens til diagnoser, samtaler og behandling på både hospitaler, klinikker, plejehjem og i hjemmet.

    Spørger man AI-entuasiasterne er AI – selvfølgelig – løsningen på alle vores problemer, og vi skal både have chatbots og avanceret analyse af alle vores journaler og sundhedsdata og personaliseret behandling og hele balladen.

    Men i praksis handler AI i sundhedsvæsenet meget mere om traditionel mønstergenkendelse, machine learning og den slags – og ikke mindst om test, validering, databeskyttelse, bias, regulering og jura.

    Det dykker vi ned i denne gang med et besøg på Center for Clinical AI på Odense Universitetshospital – CAI-X. Jeg har talt med centerleder Peter Børker Nielsen, med beskrivende radiograf Janni Jensen og med chefkonsulent Troels Martin Range – og vi skal både høre om visioner, tillid, røntgenbilleder og forudsigelser af patientflow i akutmodtagelsen.

    I AI Siden Sidst skal det blandt andet handle om CAPTCHAs, OpenAIs ny “ræsonnements-model” og om Darth Vader…

    Lyt med 🤖

    LINKS

    SIDEN SIDST

    Audible forfatter-kloner | The VergeOpenAI lancerer ny model | Wired – se også OpenAIs nye model | Atlantic og OpenAIs nye model er bedre til at “tænke” – og til at snyde | The VergeCloudflare vil stoppe AI-scraping med ét klik | Ars TechnicaAI læser CAPTCHAs på et øjeblik | TechRadar

    CAI-X

    Center for Clinical AI på OUHRapporten fra samarbejdet med ADDGoogle NotebookLMForudsigelse af patientflow

    Hvis du vil vide mere om projektet eller podcasten kan du besøge AI Denmark, og hvis du vil skrive til os med ideer, kommentarer eller andet input, så er du meget velkommen til at kontakte os her

  • På forsiden af bogen “AI-strategi – drejebog for digital intelligens” står Jesper Bove-Nielsen som forfatter, men inde i bogen indrømmer han, at forlaget Spintypes AI-assistent faktisk har skrevet cirka 20 procent af bogen.

    I denne episode skal vi se nærmere på to værktøjer, der kan hjælpe forfattere med at skrive.

    Først fortæller Jesper Bove-Nielsen mere om hvordan man som forfatter “samarbejder” med Spintype AI.

    Bagefter har jeg Martin Pichlmair i studiet til at fortælle om Writers Room, hvor man har adgang til en hel håndfuld af vidt forskellige AI-assistenter, der kan hjælpe med alt fra grammatik til plot-ideer.

    Inden da skal vi som sædvanlig have en kort omgang siden sidst – denne gang blandt andet om tv-shows og AI-regulering.

    Lyt med 🤖

    LINKS
    NYHEDER

    California AI Act – lovforslaget SB 1047 | The Verge – og Framework-aftale om AI-regulering – US, UK, EUNvidias udfordringer – BBC om aktiefald og The Verge om undersøgelse om monopolmisbrug, og konkurrent præsenterer ny chip | Techradar PROOprahs tv-special om AI møder voldsom kritik | Ars TechnicaBONUS: Kan AI oversætte mellem dyr og mennesker? DR dokumentaren Hvis grise kunne tale og artikel på Videnskab.dkBONUS: Personhood Credentials – sådan beviser du at du er et menneske | Technology Review – se også den originale artikel

    SKRIVNING

    Spintype AIWrite With Laika – folkene bag Writers Room
  • Hvordan tror GenAI at en by ser ud? Og hvordan forestiller den sig ekstremt rige eller fattige bydele?


    Det var nogle af de spørgsmål, som Rolf Lyneborg Lund fra Aalborg Universitet stillede sig selv, da han kombinerede satellitfotos og billedskabende algoritmer.


    Billederne fra AI'en – ja, de lignende nogle gange byer som vi kender dem, men andre gange så lå betonhøjhusene midt på motorvejen, og alle de store rigmandsvillaer havde luksusyachter stående på taget...

    Hør mere om hvordan machine learning, registerdata, billeder og generativ kunstig intelligens kan bruges i den sociologiske forskning.


    I AI Siden Sidst skal det blandt andet handle om billedtjenester, sagsanlæg og noget så funky som Microsofts brugerbetingelser.


    Velkommen til AI Denmark 🤖


    LINKS

    NYHEDER

    Midjourney kan bruges i browseren og giver 25 gratis billeder – TechRadarDream Machine 1.5 udfordrer Sora og andre AI videoværktøjer – TechRadarHvad er et foto overhovedet? – The VergeProcreate’s anti-AI pledge attracts praise from digital creatives - The VergeForfattere lægger sag an mod Anthropic – The VergeOpenAI indgår aftale med Condé Nast magasiner – BBCMicrosoft ændrer deres brugerbetingelser – TechRadar

    BONUS

    AI-videnskabs...væsen laver forskning – WIREDTuring test for madlavning – BBCAI og fremtidens porno – Technology ReviewChatbots sviner klimaet: Kæmpe datacentre kan om få år sluge hele Japans strømforbrug – DR

    AI I SOCIOLOGI

    Rolf Lyneborg Lund, AAUVideo hvor Rolf fortæller og viser billeder fra sin forskningMASSHINE på AAU – computationel samfunds- og humanvidenskabMere om MASSHINE i podcasten "Computational thinking – at tænke med maskiner" – episode 33 – mere om MASSHINE og episode 34 – eksempler på maskin-forskning
  • Velkommen tilbage til AI Denmark, hvor jeg i denne første episode efter sommerferien har besøg af illustrator Malene Hald og infografiker Martin Kirchgässner.

    De er ikke ligefrem enige om værdien, potentialet eller truslerne i billedskabende AI, men i fællesskab dykker vi ned i hvad genAI kan og ikke kan, og hvad teknologien og værktøjerne betyder for grafiske designere, illustratorer og andre som arbejder med billeder.

    Det handler både om hvordan grafikere selv bruger tjenesterne, om det generelle kvalitetsniveau af AI-skabt grafik, og om den potentielle trussel mod grafikernes levebrød.

    Derudover er der som sædvanlig korte historier fra AI-land – denne gang om præsidentkampagner, AI-bobler, talentspotting og meget mere.

    Lyt med 🤖

    LINKS
    NYHEDER

    AI-boble? – CNNOpenAI advarer om at deres ChatGPT-stemmer kan være følelsemæssigt vanedannende – WiredTilbageholder OpenAI et vandmærknings-værktøj? – EuractivAI skal hjælpe med at talentspotte OL-atleter – BBCGoogle har lavet bordtennis-robotHumane bløder penge på deres AI PinBONUSLINK: Livestream fra Waymo-bilernes parkeringspladsLÆSELINK: NYT om alternativ "opkøb" af AI-startupsLYTTERLINK: Johnny Vad har brugt sommerferien på at hyggeprogrammere med LLM. Chat med hans sommerhus(!), eller tjek de knap 1600 danske udbudsfejl.

    GRAFIK

    Martin KirchgässnerMalene Hald
  • Den 20. juni var AI Denmark-podcasten med til en workshop om AI, hvor deltagerne i fællesskab skulle forsøge at se 10 år ud i fremtiden, til 2034, og lave forskellige scenarier for hvordan AI på godt og ondt kunne komme til at påvirke vores private, professionelle og sociale liv – og endda også pitche firmaideer til de forskellige fremtidsscenarier.

    AI Lab blev arrangeret af Innovation Center Denmark i Silicon Valley, Teknologisk Institut og det relative nystartede danske Institute of AI, og målet var at samle et bredt spektrum af både eksperter, studerende, virksomhedsfolk og almindeligt nysgerrige, og få en masse vidt forskellige perspektiver og scenarier.

    Vi har talt med to arrangørerne, med en af oplægsholderne og selvfølgelig også med en håndfuld af deltagerne fra workshoppen AI Lab.

    Lyt med 🤖

    LINKS

    NYHEDER

    • Apple Intelligence kommer ikke til EU lige foreløbig

    • Microsofts Recall-funktion er blevet 'recalled'

    • Meta stopper (foreløbig) AI-træning på europæiske brugere af Facebook og Instagram

    • Tidligere OpenAI-forsker starter nyt AI-firma

    • BONUS: 'Slop' er den nye betegnelse for ligegyldigt AI-skabt "indhold"

    AI LAB
    • AI Lab i Kødbyen
    • Innovation Center Denmark Silicon Valley
    • Line Lyst, Institute of AI

  • I denne episode får jeg besøg af antropolog og arbejdsmarkedsforsker Mark Friis Hau fra Københavns Universitet.

    Han har netop forfattet en rapport om generativ AI og fremtidens arbejdsmarked, og har blandt andet set på hvordan de særlige danske forhold med stærke fagforeninger, overenskomstforhandlinger og flexicurity måske kan spille en rolle.

    Mark Hau udforsker to grundlæggende scenarier:


    - Det ene scenarie er, at AI overtager en hel masse af vores arbejdsopgaver så mange af os bliver arbejdsløse i kortere eller længere tid.


    - Den anden mulighed er, at AI giver os mulighed for at omforme og udvikle vores opgaver med hjælp fra kunstig intelligens, så vi fortsat kan blive på arbejdsmarkedet, men løser vores opgaver på nye måder.

    Hør meget mere om dét i denne episode af AI Denmark, hvor vi også vender Apples bud på AI i din iPhone (AI står for Apple Intelligence!), og danske mediers trussel mod OpenAI.

    Lyt med 🤖

    LINKS

    NYHEDER

    • The Verge: Apple WWDC 2024: the 13 biggest announcements

    • Danish Media Threatens to Sue OpenAI

    • Danske Pressepublikationers Kollektive Forvaltningsorganisation

    • Efter kritik af regeringen: Datatilsynet skal alligevel håndhæve nye AI-regler

    AI OG ARBEJDSMARKED

    • Mark Friis Hau, FAOS

    • Om FAOS - Forskningscenter på Københavns Universitet

    • Marks rapport “Generativ kunstig intelligens og fremtidens arbejdsmarked” (pdf)

    • Tager AI dit arbejde eller bliver du mere produktiv med en AI-makker? | AI Denmark | Episode 13

  • De store sprogmodeller som GPT4 og Gemini og Claude er efterhånden blevet ekstremt avancerede og kapable. Men måske har de alligevel nogle svagheder.

    Det er fx uklart og omdiskuteret hvilke data de er trænet på – og ikke mindst om de har haft ret til at bruge de store datasæt – og de engelske modeller kan også nogle gange havde udfordring med at skrive på små sprog som dansk.

    Det er bare et par af de ting, som Dansk Sprogmodel Konsortium gerne vil tackle, og de håber at danske organisationer og virksomheder gerne vil donere data til arbejdet.

    Jeg har besøgt Alexandra Instituttet, der er en af de stiftende partnere i konsortiet for at høre mere om ideen, arbejdet og udfordringerne. Her talte jeg med Jens Kaas Benner, leder af AI Lab i Alexandra Instituttet, og Anders Jess Pedersen og Rasmus Larsen, som er AI-specialister sammesteds.

    Derudover er der selvfølgelig kort nyt fra AI-land, om Scarlett Johansson, GDPR-ballade og meget mere.

    God fornøjelse 🤖

    LINKS

    NYHEDER

    Har OpenAI kopieret ScarJo's stemme?Sony har sendt breve til over 700 firmaer som de mistænker for at have trænet AI på Sony-musikKan GenAI overhovedet overholde GDPR?Google 1: præsenterede masser af nye AI-ting på I/O-konference...Google 2: sådan kan du slå AI-søgning fra...xAI rejser 6 mia dollars i investeringerAI-konsortium med 25 opfordringer til politikerneBONUS: Har Anthropic fået en lommelygte ned i den berygtede 'black box'?

    DK SPROGMODEL

    Dansk Sprogmodel KonsortiumDanish Foundation ModelsTrustLLMSkoleGPTHør også tidligere AIDK-episode om SkoleGPTOg en tidligere episode om danske sprogmodellerDanskGPTEU-supercomputeren LUMI
  • Den tilsyneladende uafvendelige AI-bølge rammer naturligvis også skoler, gymnasier og andre uddannelsesinstitutioner, hvor man slås med truslen om snyd på steroider, men hvor man også mange steder har kastet sig over at udforske, hvordan man kan undervise i og med AI.

    Det mener de i hvert fald på Odense Tekniske Gymnasium, hvor første hold af elever til efteråret begynder på en studieretning i AI, i forsøget på at gøre eleverne klar til både skole, job og hverdag i en verden af kunstig intelligens.

    For nylig besøgte jeg OTG for at tale med to af underviserne, Claus Scheuer-Larsen og Per Størup Lauridsen, og vi fik også selskab af rektor Birgitte Veje Bredahl.

    De fortalte meget mere om baggrunden, visionerne og planerne for den kommende AI-studieretning.

    Lyt med 🤖

    LINKS

    NYHEDER

    Lancering af Dansk Sprogmodel KonsortiumDF's deepfake-video på XMit navn er Bot. James Bot.OpenAI lancerer ny "omnimodal" GPT-model

    EMNE

    Odense Tekniske GymnasiumViden.aiEkspertgruppe-rapport om AI-eksaminerSine Zambach: "AI i gymnasiet"SkoleGPT-episode af AI Denmark
  • Værktøjer som ChatGPT, Copilot og Gemini kan være fristende at bruge – men man skal have styr på sin sikkerhed – ligesom med alle andre it-løsninger.

    Og især i firmaer og organisationer bør LLM-sikkerhed afgjort være på dagsordenen. Det gælder både vurdering af selve modellerne man bruger, udefrakommende manipulation af prompts, hvilke firmadata man risikerer at lække til modellerne, hvilke resultater man får og hvad man bruger dem til.

    Jeg har haft besøg i studiet af Zaruhi Aslanyan, som er sikkerhedsarkitekt på Alexandra Instituttet og Michael Rømer Bennike, der er senior sikkerhedsarkitekt samme sted, for at høre mere om udfordringerne og hvad man kan gøre.

    Desværre er der – ligesom med al anden it-sikkerhed – ikke nogle nemme løsninger...

    Lyt med 🤖

    LINKS

    NYHEDER

    The Verge prøver AI-assistenten Rabbit R1Metas nye Llama 3Kafferistning med AI🎧 BKI-episode fra 2022Lavender – Israels AI-våbenSciAm om "Lethal Autonomous Weapons"AI-film på vejSkattealgoritmer mørklagtOvertræder ChatGPT GDPR?FT leverer træningsdata til OpenAI

    LLM-SIKKERHED

    Michael Rømer BennikeZaruhi AslanyanAlexandra Instituttet"LLM-sikkerhed for dummies" – med de 10 største risici ved LLM'erWired: Hold dine data ude af træningsmaterialet
  • Det er knap halvandet år siden ChatGPT blev lanceret, og bølgen af AI er skyllet ind over mange brancher – inklusive journalistikken, hvor både researchere, journalister, podcastere, redaktører, grafikere, fotografer og andre på godt og ondt har oplevet at generativ AI er blevet en del af hverdagen.

    Men måske er vi alligevel ikke kommet særlig langt? Måske er vi stadig der hvor vi bruger teknologien til at gøre som vi plejer, bare hurtigere, i stedet for for at prøve helt nye og anderledes ting af? Eller måske rettere; at vi spørger hvordan vi kan bruge AI til at løse journalistikkens kerneopgave på en bedre måde?

    Jeg har besøg af journalist, redaktør og SDU fellow Ida Ebbensgaard og af adjunkt Peder Hammerskov fra journalistuddannelsen på DJMX, som kom i studiet direkte fra Nordic AI in Media Summit 2024.

    Derudover har vi som sædvanlig et par korte nyheder fra AI-land – denne gang blandt andet om spillelister i Spotify og endnu en satsning fra OpenAI-direktør Sam Altman.

    LINKS

    NYHEDER

    Spotify lancerer (begrænset) test af AI-skabte spillelisterSam Altman og Jony Ive jagter penge til AI-hardwareSilo AI lancerer nordiske sprog i Viking-modellerne

    AI OG JOURNALISTIK

    Ida Ebbensgaard, SDU fellowPeder Hammerskov, DJMXNordic AI in Media 2024Alle præsentationerne fra NAMS 2024Financial Times afprøver chatbotten "Ask FT"Newsquest har syv AI-assisterede reporterGrønlandsk-dansk oversættelsesværktøjer hos SermitsiaqSermitsiaq – nyheder i GrønlandRune Ytreberg - nyheder fra Tromsø[Podimo afprøver AI-støttet søgning og 'discovery'](https://podimo.com/en/newsroom/podimo-tests-new-ai-feature-conversational-interface-to-aid-in-podcast-discoveryRapport og undersøgelse fra AP: "Generative AI in Journalism"
  • I denne episode skal det handle om vejret og selvfølgelig om hvordan machine learning og AI kan hjælpe med at lave vejrudsigter og prognoser.

    Google, Nvidia og Huawei har alle præsenteret AI-vejrmodeller som metodisk gør helt op med de kendte vejrmodeller, som typisk baserer sig på simulationer af atmosfæren og matematiske ligninger.

    Vi har besøg af seniorforsker Leif Denby fra DMI, hvor man også er gået igang med at undersøge hvordan AI-metoderne kan bruges til at supplere de "gammeldaws" modeller.

    Derudover er der også kort nyt fra AI-land, denne gang blandt andet om den lille karibiske nation, hvis top-level domæne ender på .ai

    Lyt med 🤖

    LINKS
    NYHEDER

    Frankrig udstikker bøde på 250 millioner Euro til GoogleVil BBC sælge tv-arkiver til AI-træning?Anguilla tjener kassen på domænet .aiOpenAI præsenterer stemmeklonmodel

    AI OG VEJR

    Leif DenbyLeif: Google-AI imponerer med præcision og hastighed i prognoserECMWF sammenligner forskellige AI-modeller og traditionelle modellerVejrdata og -udsigterScientific American – kan AI erstatte de traditionelle modeller?
  • Der er næppe tvivl om at brugen af kunstig intelligens bringer mange problemer med sig. Det som virker smart på whiteboardet kan hurtigt blive ramt af både tekniske, juridiske og etiske bomber under systemet.

    Der bliver talt meget om hvordan vi skal gøre AI mere gennemskueligt, og hvordan vi skal sikre os at de svar algoritmerne giver er korrekte. Og det er ambitioner som det er svært at være uenige med.

    Men hvordan kan man vurdere AI-løsningerne, og forsøge at sikre sig, at de så godt som muligt overholder både etiske principper og gældende lovgivning?

    Det er spørgsmålet som Per Rådberg Nagbøl fra ITU har forsøgt at besvare med værktøjet XRAI, som er udviklet i samarbejde med Erhvervsstyrelsen

    XRAI opdeler udvikling, evaluering og tilpasning af AI-systemer i fire faser, med masser af tjeklister og kontrolpunkter – i håbet om at kunne hjælpe både offentlige institutioner og private virksomheder, der arbejder med AI.

    Derudover er der også AI Siden Sidst – med historier om både industrispionage, AI Act og nye Nvidia-chips.

    Lyt med 🤖

    LINKS

    NYHEDER

    Endelig vedtagelse af AI ActGoogle begrænser adgang til valg-info på Gemini (først i Indien...)Kinesisk Google-ansat beskyldt for at stjæle hemmeligheder om AI Tensor-chipsAI-supercomputer fra Novo Nordisk og NvidiaNvidia præsenterer ny AI-chip

    EMNE

    Per Rådberg Nagbøl, ITUCarsten Ingerslev, ErhvervsstyrelsenArtikel på Videnskab.dk om XRAIPer Nagbøls afhandling om XRAI
  • I denne episode ser vi nærmere på deepfakes og ikke mindst på de juridiske aspekter af fænomenet – fra personlighedsret til de strafferetlige forhold.

    Deepfakes er en teknologi, der bruger kunstig intelligens til at skabe overbevisende billeder, lyd og video, hvor en persons ansigt eller stemme bliver erstattet med en andens. Afhængig af omstændighederne kan det faktisk give indhold, der er fuldstændig kunstigt fabrikeret, men ser helt ægte ud.

    Deepfakes kan misbruges på mange måder – til politisk propaganda, phishing-angreb og fake news, men det er måske også på sin plads at nævne, at de 'syntetiske medier' også sagtens kan anvendes i mere positive sammenhænge.

    Det er ikke umiddelbart åbenlyst hvad man kan gøre for at begrænse de negative konsekvenser af deepfakes, udover at retsforfølge de tilfælde hvor teknologien bliver misbrugt og overtræder gældende lov.

    Det fortæller advokat Jakob Plesner Mathiasen fra Gorrissen Federspiel, som især beskæftiger sig med det man kalder entertainment-ret.

    Lyt med 🤖

    LINKS

    NYHEDER

    Rapport om techgiganter og AIMistrals og Microsoft indgår partnerskab – men EU løfter pegefingerenElon Musk lægger sag an mod OpenAI

    DEEPFAKES

    Jakob Plesner Mathiasen - Gorrissen FederspielHeyGen til avatarerElevenLabs laver stemmeklonerKan techgiganterne også hjælpe i kampen mod deepfakes?Han skulle nok ikke have deepfaket Joe BidenSora – OpenAIs nye videoværktøj
  • I denne episode ser vi nærmere på brugen af AI i advokatbranchen.

    I juni sidste år fik den amerikanske advokat Steven Schwartz ørerne i maskinen, da det viste sig at han havde fået hjælp af ChatGPT i forberedelsen til en af sine sager.

    Flere af de retssager som ChatGPT fandt frem til Steven Schwartz og hans hold var det pure opspind. ChatGPT havde ganske enkelt hallucineret dem frem. Ups.

    Men derfor kan der jo sagtens være andre måder at bruge AI på i hverdagen, også hvis man er advokat eller arbejder i et advokatfirma. Og der er næppe tvivl om, at vi med de nyeste AI-modeller har fået værktøjer som sagtens kan tackle mange af advokaternes opgaver.

    Jeg har besøgt Marlene Winther Plas og Sarah Paustian Sander i DLA Piper for at høre mere om hvordan advokater bruger AI i hverdagen – og ikke mindst hvor man måske skal være mere varsom...

    Lyt med 🤖

    LINKS

    NYHEDER

    Meta vil have vandmærker i alle AI-billeder på Facebook, Instagram og ThreadsOpenAI indfører vandmærker i DALL-EDet er godt at techgiganter arbejder med vandmærker......men forskere viser, at de nemt kan omgåsMicrosoft og OpenAI siger at hackere bruger ChatGPT i deres angrebMozilla: AI-"venner" stjæler dine dataChatGPT – nu med mere hukommelse, på godt og ondt...

    AI OG JURA

    10 råd til dit arbejde med ChatGPT og anden generativ AI | JurainfoArtikel: Hvis du vil dybere i hvor godt ChatGPT klarer sig indenfor juraAI i DLA PiperMarlene Winther PlasSarah Paustian Sander
  • Femtech er teknologi – gadgets, apps og tjenester – der er målrettet kvinder. Det kan være små devices der kan hjælpe med at forudsige at der er en hedetur på vej, apps som kan lave analyser af hvornår brugeren har ægløsning, eller "bare" almindelige tjenester som handler om at tracke sundhed og aktivitet, men som har særlig fokus på kvinders fysiologi og behov.

    Og naturligvis kan AI også spille en stor rolle her – selvom det ligesom i alle andre sammenhænge kræver at man er bevidst om beskyttelsen af private data, problemer med bias, manglende transparens og de andre udfordringer ved anvendelsen af AI.

    Jeg har haft besøg i studiet af Vanessa Carpenter, der blandt andet har arbejdet med forskning i produkter og tjenester i kategorien femtech.

    Derudover er der som sædvanlig også korte AI-nyheder, denne gang blandt andet om deepfakes og hvordan spædbørn lærer sprog.

    Lyt med 🤖

    LINKS

    NYHEDER

    AI-deepfakes af Taylor Swift kommer fra 4chan - The New York Times

    Sag mod George Carlin - deepfake comedy – WIRED

    Kamera på baby kan måske lære AI nye måder at tilegne sig sprog

    Sag mod OpenAI i Italien - BBC News

    Billed-generator i Google Bard (men ikke i EU...) – TechRadar

    AndersGPT

    Arc Search på iPhone

    FEMTECH

    Vanessa Carpenter på LinkedIn

    Vanessa er ny medredaktør på Techtruster.dk

    Artikel om tracking af hjertefunktion hos kvinder – Techtruster

    AVA cyklus-tracking

    ThermaBand hjælper i overgangsalderen

    Artikel om privatliv og sikkerhed i femtech

    BMC Medical Ethics-artikel om privatliv, AI og femtech

    Base med AI-og-femtech-virksomheder

    Caroline Criado Perez: "Invisible Women" – hvis du vil grave dybere i udfordringen

    Leslie Laurence, Beth Weinhouse: "Outrageous Practices: How Gender Bias Threatens Women's Health"

  • Som mange nok husker, så var der i starten af december sidste år temmelig meget tovtrækkeri i de sidste forhandlinger om den såkaldte AI Act, altså den europæiske forordning om kunstig intelligens.

    Hele 37 timer skulle parterne sidde omkring bordet, helt op til deadline – og lidt over – før de blev enige, blandt andet om hvordan man overhovedet skal definere AI.

    AI Act er blevet beskrevet som en regulering der tager udgangspunkt i beskyttelse af EUs borgere, og det er der naturligvis mange som er glade for – men ikke alle. AI Act er også blevet kritiseret for at lægge for store begrænsninger og administrative byrder på virksomheder, og kritikerne siger at det vil hæmme innovationen i Europa.

    I denne episode dykker vi ned i EUs AI Act, som nu meget snart blandt andet kommer til at betyde, at alle tjenester, værktøjer eller produkter som bruger kunstig intelligens skal klassificeres for hvilket niveau af risiko løsningen har for brugerne

    Vi har talt med professor Rebecca Adler-Nissen fra Institut for Statskundskab på Københavns Universitet om hendes vurdering af forordningen, balancen mellem regulering og forretning, og hvordan den kommer til at beskytte EUs borgere

    Derudover er der som sædvanlig korte AI-nyheder fra nær og fjern – denne gang blandt andet om kaniner og Kina.

    Lyt med! 🤖

    LINKS

    NYHEDER

    Rabbit r1 – din nye håndholdte AI-assistent?

    Samsungs S24-serie er propfuld af AI

    Har det kinesiske militær virkelig særadgang til Baidus Ernie Bot?

    Zuckerberg og Meta vil bygge generel kunstig intelligens

    OM AI ACT

    Nyhed fra Parlamentet efter de afsluttende forhandlinger

    Spørgsmål og svar om AI Act (fra Kommissionen)

    Den oprindelige tekst fra EUR-Lex

  • De store AI-modeller er trænet på helt kolossale mængder af data. Og modeller som fx Stable Audio, der kan lave AI-genereret musik, er trænet på tusinder og atter tusinder af sange, symfonier, tekster og andet input, og det er dét materiale som er råstof til de tekster eller musikstykker, som modellerne spytter ud.

    Men det er ikke helt ligetil at finde ud af hvilke sange der er del af træningsmaterialet, eller hvordan sangskriverne (måske) skal kompenseres, hvis deres værker er blevet brugt i de store AI-modeller.

    Som et nedslag i dén problematik har jeg inviteret Nicolai Franck fra KODA i studiet til en snak om sangskrivere, træningsdata, generativ AI og ikke mindst om penge og ophavsret.


    LINKS

    NYHEDER

    "AI" i fastfood-drivethrough

    114 millioner km i selvkørende biler

    CyberRunner labyrint-kuglespil video

    Apple vil lave AI 'on device'

    New York Times sagsøger OpenAI og Microsoft

    MUSIK OG AI

    KODA

    Nicolai Franck – tech scout i KODA

    Ed Newton-Rex stopper i Stability AI

    AI allevegne i musikbranchen

    Kulturministeren vil reformere ophavsret i AI-alderen

    Hvorfor AI-firmaer ikke vil betale for brug af træningsdata?