Episodios

  • På forsiden af bogen “AI-strategi – drejebog for digital intelligens” står Jesper Bove-Nielsen som forfatter, men inde i bogen indrømmer han, at forlaget Spintypes AI-assistent faktisk har skrevet cirka 20 procent af bogen.

    I denne episode skal vi se nærmere på to værktøjer, der kan hjælpe forfattere med at skrive.

    Først fortæller Jesper Bove-Nielsen mere om hvordan man som forfatter “samarbejder” med Spintype AI.

    Bagefter har jeg Martin Pichlmair i studiet til at fortælle om Writers Room, hvor man har adgang til en hel håndfuld af vidt forskellige AI-assistenter, der kan hjælpe med alt fra grammatik til plot-ideer.

    Inden da skal vi som sædvanlig have en kort omgang siden sidst – denne gang blandt andet om tv-shows og AI-regulering.

    Lyt med 🤖

    LINKS
    NYHEDER

    California AI Act – lovforslaget SB 1047 | The Verge – og Framework-aftale om AI-regulering – US, UK, EUNvidias udfordringer – BBC om aktiefald og The Verge om undersøgelse om monopolmisbrug, og konkurrent præsenterer ny chip | Techradar PROOprahs tv-special om AI møder voldsom kritik | Ars TechnicaBONUS: Kan AI oversætte mellem dyr og mennesker? DR dokumentaren Hvis grise kunne tale og artikel på Videnskab.dkBONUS: Personhood Credentials – sådan beviser du at du er et menneske | Technology Review – se også den originale artikel

    SKRIVNING

    Spintype AIWrite With Laika – folkene bag Writers Room
  • Hvordan tror GenAI at en by ser ud? Og hvordan forestiller den sig ekstremt rige eller fattige bydele?


    Det var nogle af de spørgsmål, som Rolf Lyneborg Lund fra Aalborg Universitet stillede sig selv, da han kombinerede satellitfotos og billedskabende algoritmer.


    Billederne fra AI'en – ja, de lignende nogle gange byer som vi kender dem, men andre gange så lå betonhøjhusene midt på motorvejen, og alle de store rigmandsvillaer havde luksusyachter stående på taget...

    Hør mere om hvordan machine learning, registerdata, billeder og generativ kunstig intelligens kan bruges i den sociologiske forskning.


    I AI Siden Sidst skal det blandt andet handle om billedtjenester, sagsanlæg og noget så funky som Microsofts brugerbetingelser.


    Velkommen til AI Denmark 🤖


    LINKS

    NYHEDER

    Midjourney kan bruges i browseren og giver 25 gratis billeder – TechRadarDream Machine 1.5 udfordrer Sora og andre AI videoværktøjer – TechRadarHvad er et foto overhovedet? – The VergeProcreate’s anti-AI pledge attracts praise from digital creatives - The VergeForfattere lægger sag an mod Anthropic – The VergeOpenAI indgår aftale med Condé Nast magasiner – BBCMicrosoft ændrer deres brugerbetingelser – TechRadar

    BONUS

    AI-videnskabs...væsen laver forskning – WIREDTuring test for madlavning – BBCAI og fremtidens porno – Technology ReviewChatbots sviner klimaet: Kæmpe datacentre kan om få år sluge hele Japans strømforbrug – DR

    AI I SOCIOLOGI

    Rolf Lyneborg Lund, AAUVideo hvor Rolf fortæller og viser billeder fra sin forskningMASSHINE på AAU – computationel samfunds- og humanvidenskabMere om MASSHINE i podcasten "Computational thinking – at tænke med maskiner" – episode 33 – mere om MASSHINE og episode 34 – eksempler på maskin-forskning
  • ¿Faltan episodios?

    Pulsa aquí para actualizar resultados

  • Velkommen tilbage til AI Denmark, hvor jeg i denne første episode efter sommerferien har besøg af illustrator Malene Hald og infografiker Martin Kirchgässner.

    De er ikke ligefrem enige om værdien, potentialet eller truslerne i billedskabende AI, men i fællesskab dykker vi ned i hvad genAI kan og ikke kan, og hvad teknologien og værktøjerne betyder for grafiske designere, illustratorer og andre som arbejder med billeder.

    Det handler både om hvordan grafikere selv bruger tjenesterne, om det generelle kvalitetsniveau af AI-skabt grafik, og om den potentielle trussel mod grafikernes levebrød.

    Derudover er der som sædvanlig korte historier fra AI-land – denne gang om præsidentkampagner, AI-bobler, talentspotting og meget mere.

    Lyt med 🤖

    LINKS
    NYHEDER

    AI-boble? – CNNOpenAI advarer om at deres ChatGPT-stemmer kan være følelsemæssigt vanedannende – WiredTilbageholder OpenAI et vandmærknings-værktøj? – EuractivAI skal hjælpe med at talentspotte OL-atleter – BBCGoogle har lavet bordtennis-robotHumane bløder penge på deres AI PinBONUSLINK: Livestream fra Waymo-bilernes parkeringspladsLÆSELINK: NYT om alternativ "opkøb" af AI-startupsLYTTERLINK: Johnny Vad har brugt sommerferien på at hyggeprogrammere med LLM. Chat med hans sommerhus(!), eller tjek de knap 1600 danske udbudsfejl.

    GRAFIK

    Martin KirchgässnerMalene Hald
  • Den 20. juni var AI Denmark-podcasten med til en workshop om AI, hvor deltagerne i fællesskab skulle forsøge at se 10 år ud i fremtiden, til 2034, og lave forskellige scenarier for hvordan AI på godt og ondt kunne komme til at påvirke vores private, professionelle og sociale liv – og endda også pitche firmaideer til de forskellige fremtidsscenarier.

    AI Lab blev arrangeret af Innovation Center Denmark i Silicon Valley, Teknologisk Institut og det relative nystartede danske Institute of AI, og målet var at samle et bredt spektrum af både eksperter, studerende, virksomhedsfolk og almindeligt nysgerrige, og få en masse vidt forskellige perspektiver og scenarier.

    Vi har talt med to arrangørerne, med en af oplægsholderne og selvfølgelig også med en håndfuld af deltagerne fra workshoppen AI Lab.

    Lyt med 🤖

    LINKS

    NYHEDER

    • Apple Intelligence kommer ikke til EU lige foreløbig

    • Microsofts Recall-funktion er blevet 'recalled'

    • Meta stopper (foreløbig) AI-træning på europæiske brugere af Facebook og Instagram

    • Tidligere OpenAI-forsker starter nyt AI-firma

    • BONUS: 'Slop' er den nye betegnelse for ligegyldigt AI-skabt "indhold"

    AI LAB
    • AI Lab i Kødbyen
    • Innovation Center Denmark Silicon Valley
    • Line Lyst, Institute of AI

  • I denne episode får jeg besøg af antropolog og arbejdsmarkedsforsker Mark Friis Hau fra Københavns Universitet.

    Han har netop forfattet en rapport om generativ AI og fremtidens arbejdsmarked, og har blandt andet set på hvordan de særlige danske forhold med stærke fagforeninger, overenskomstforhandlinger og flexicurity måske kan spille en rolle.

    Mark Hau udforsker to grundlæggende scenarier:


    - Det ene scenarie er, at AI overtager en hel masse af vores arbejdsopgaver så mange af os bliver arbejdsløse i kortere eller længere tid.


    - Den anden mulighed er, at AI giver os mulighed for at omforme og udvikle vores opgaver med hjælp fra kunstig intelligens, så vi fortsat kan blive på arbejdsmarkedet, men løser vores opgaver på nye måder.

    Hør meget mere om dét i denne episode af AI Denmark, hvor vi også vender Apples bud på AI i din iPhone (AI står for Apple Intelligence!), og danske mediers trussel mod OpenAI.

    Lyt med 🤖

    LINKS

    NYHEDER

    • The Verge: Apple WWDC 2024: the 13 biggest announcements

    • Danish Media Threatens to Sue OpenAI

    • Danske Pressepublikationers Kollektive Forvaltningsorganisation

    • Efter kritik af regeringen: Datatilsynet skal alligevel håndhæve nye AI-regler

    AI OG ARBEJDSMARKED

    • Mark Friis Hau, FAOS

    • Om FAOS - Forskningscenter på Københavns Universitet

    • Marks rapport “Generativ kunstig intelligens og fremtidens arbejdsmarked” (pdf)

    • Tager AI dit arbejde eller bliver du mere produktiv med en AI-makker? | AI Denmark | Episode 13

  • De store sprogmodeller som GPT4 og Gemini og Claude er efterhånden blevet ekstremt avancerede og kapable. Men måske har de alligevel nogle svagheder.

    Det er fx uklart og omdiskuteret hvilke data de er trænet på – og ikke mindst om de har haft ret til at bruge de store datasæt – og de engelske modeller kan også nogle gange havde udfordring med at skrive på små sprog som dansk.

    Det er bare et par af de ting, som Dansk Sprogmodel Konsortium gerne vil tackle, og de håber at danske organisationer og virksomheder gerne vil donere data til arbejdet.

    Jeg har besøgt Alexandra Instituttet, der er en af de stiftende partnere i konsortiet for at høre mere om ideen, arbejdet og udfordringerne. Her talte jeg med Jens Kaas Benner, leder af AI Lab i Alexandra Instituttet, og Anders Jess Pedersen og Rasmus Larsen, som er AI-specialister sammesteds.

    Derudover er der selvfølgelig kort nyt fra AI-land, om Scarlett Johansson, GDPR-ballade og meget mere.

    God fornøjelse 🤖

    LINKS

    NYHEDER

    Har OpenAI kopieret ScarJo's stemme?Sony har sendt breve til over 700 firmaer som de mistænker for at have trænet AI på Sony-musikKan GenAI overhovedet overholde GDPR?Google 1: præsenterede masser af nye AI-ting på I/O-konference...Google 2: sådan kan du slå AI-søgning fra...xAI rejser 6 mia dollars i investeringerAI-konsortium med 25 opfordringer til politikerneBONUS: Har Anthropic fået en lommelygte ned i den berygtede 'black box'?

    DK SPROGMODEL

    Dansk Sprogmodel KonsortiumDanish Foundation ModelsTrustLLMSkoleGPTHør også tidligere AIDK-episode om SkoleGPTOg en tidligere episode om danske sprogmodellerDanskGPTEU-supercomputeren LUMI
  • Den tilsyneladende uafvendelige AI-bølge rammer naturligvis også skoler, gymnasier og andre uddannelsesinstitutioner, hvor man slås med truslen om snyd på steroider, men hvor man også mange steder har kastet sig over at udforske, hvordan man kan undervise i og med AI.

    Det mener de i hvert fald på Odense Tekniske Gymnasium, hvor første hold af elever til efteråret begynder på en studieretning i AI, i forsøget på at gøre eleverne klar til både skole, job og hverdag i en verden af kunstig intelligens.

    For nylig besøgte jeg OTG for at tale med to af underviserne, Claus Scheuer-Larsen og Per Størup Lauridsen, og vi fik også selskab af rektor Birgitte Veje Bredahl.

    De fortalte meget mere om baggrunden, visionerne og planerne for den kommende AI-studieretning.

    Lyt med 🤖

    LINKS

    NYHEDER

    Lancering af Dansk Sprogmodel KonsortiumDF's deepfake-video på XMit navn er Bot. James Bot.OpenAI lancerer ny "omnimodal" GPT-model

    EMNE

    Odense Tekniske GymnasiumViden.aiEkspertgruppe-rapport om AI-eksaminerSine Zambach: "AI i gymnasiet"SkoleGPT-episode af AI Denmark
  • Værktøjer som ChatGPT, Copilot og Gemini kan være fristende at bruge – men man skal have styr på sin sikkerhed – ligesom med alle andre it-løsninger.

    Og især i firmaer og organisationer bør LLM-sikkerhed afgjort være på dagsordenen. Det gælder både vurdering af selve modellerne man bruger, udefrakommende manipulation af prompts, hvilke firmadata man risikerer at lække til modellerne, hvilke resultater man får og hvad man bruger dem til.

    Jeg har haft besøg i studiet af Zaruhi Aslanyan, som er sikkerhedsarkitekt på Alexandra Instituttet og Michael Rømer Bennike, der er senior sikkerhedsarkitekt samme sted, for at høre mere om udfordringerne og hvad man kan gøre.

    Desværre er der – ligesom med al anden it-sikkerhed – ikke nogle nemme løsninger...

    Lyt med 🤖

    LINKS

    NYHEDER

    The Verge prøver AI-assistenten Rabbit R1Metas nye Llama 3Kafferistning med AI🎧 BKI-episode fra 2022Lavender – Israels AI-våbenSciAm om "Lethal Autonomous Weapons"AI-film på vejSkattealgoritmer mørklagtOvertræder ChatGPT GDPR?FT leverer træningsdata til OpenAI

    LLM-SIKKERHED

    Michael Rømer BennikeZaruhi AslanyanAlexandra Instituttet"LLM-sikkerhed for dummies" – med de 10 største risici ved LLM'erWired: Hold dine data ude af træningsmaterialet
  • Det er knap halvandet år siden ChatGPT blev lanceret, og bølgen af AI er skyllet ind over mange brancher – inklusive journalistikken, hvor både researchere, journalister, podcastere, redaktører, grafikere, fotografer og andre på godt og ondt har oplevet at generativ AI er blevet en del af hverdagen.

    Men måske er vi alligevel ikke kommet særlig langt? Måske er vi stadig der hvor vi bruger teknologien til at gøre som vi plejer, bare hurtigere, i stedet for for at prøve helt nye og anderledes ting af? Eller måske rettere; at vi spørger hvordan vi kan bruge AI til at løse journalistikkens kerneopgave på en bedre måde?

    Jeg har besøg af journalist, redaktør og SDU fellow Ida Ebbensgaard og af adjunkt Peder Hammerskov fra journalistuddannelsen på DJMX, som kom i studiet direkte fra Nordic AI in Media Summit 2024.

    Derudover har vi som sædvanlig et par korte nyheder fra AI-land – denne gang blandt andet om spillelister i Spotify og endnu en satsning fra OpenAI-direktør Sam Altman.

    LINKS

    NYHEDER

    Spotify lancerer (begrænset) test af AI-skabte spillelisterSam Altman og Jony Ive jagter penge til AI-hardwareSilo AI lancerer nordiske sprog i Viking-modellerne

    AI OG JOURNALISTIK

    Ida Ebbensgaard, SDU fellowPeder Hammerskov, DJMXNordic AI in Media 2024Alle præsentationerne fra NAMS 2024Financial Times afprøver chatbotten "Ask FT"Newsquest har syv AI-assisterede reporterGrønlandsk-dansk oversættelsesværktøjer hos SermitsiaqSermitsiaq – nyheder i GrønlandRune Ytreberg - nyheder fra Tromsø[Podimo afprøver AI-støttet søgning og 'discovery'](https://podimo.com/en/newsroom/podimo-tests-new-ai-feature-conversational-interface-to-aid-in-podcast-discoveryRapport og undersøgelse fra AP: "Generative AI in Journalism"
  • I denne episode skal det handle om vejret og selvfølgelig om hvordan machine learning og AI kan hjælpe med at lave vejrudsigter og prognoser.

    Google, Nvidia og Huawei har alle præsenteret AI-vejrmodeller som metodisk gør helt op med de kendte vejrmodeller, som typisk baserer sig på simulationer af atmosfæren og matematiske ligninger.

    Vi har besøg af seniorforsker Leif Denby fra DMI, hvor man også er gået igang med at undersøge hvordan AI-metoderne kan bruges til at supplere de "gammeldaws" modeller.

    Derudover er der også kort nyt fra AI-land, denne gang blandt andet om den lille karibiske nation, hvis top-level domæne ender på .ai

    Lyt med 🤖

    LINKS
    NYHEDER

    Frankrig udstikker bøde på 250 millioner Euro til GoogleVil BBC sælge tv-arkiver til AI-træning?Anguilla tjener kassen på domænet .aiOpenAI præsenterer stemmeklonmodel

    AI OG VEJR

    Leif DenbyLeif: Google-AI imponerer med præcision og hastighed i prognoserECMWF sammenligner forskellige AI-modeller og traditionelle modellerVejrdata og -udsigterScientific American – kan AI erstatte de traditionelle modeller?
  • Der er næppe tvivl om at brugen af kunstig intelligens bringer mange problemer med sig. Det som virker smart på whiteboardet kan hurtigt blive ramt af både tekniske, juridiske og etiske bomber under systemet.

    Der bliver talt meget om hvordan vi skal gøre AI mere gennemskueligt, og hvordan vi skal sikre os at de svar algoritmerne giver er korrekte. Og det er ambitioner som det er svært at være uenige med.

    Men hvordan kan man vurdere AI-løsningerne, og forsøge at sikre sig, at de så godt som muligt overholder både etiske principper og gældende lovgivning?

    Det er spørgsmålet som Per Rådberg Nagbøl fra ITU har forsøgt at besvare med værktøjet XRAI, som er udviklet i samarbejde med Erhvervsstyrelsen

    XRAI opdeler udvikling, evaluering og tilpasning af AI-systemer i fire faser, med masser af tjeklister og kontrolpunkter – i håbet om at kunne hjælpe både offentlige institutioner og private virksomheder, der arbejder med AI.

    Derudover er der også AI Siden Sidst – med historier om både industrispionage, AI Act og nye Nvidia-chips.

    Lyt med 🤖

    LINKS

    NYHEDER

    Endelig vedtagelse af AI ActGoogle begrænser adgang til valg-info på Gemini (først i Indien...)Kinesisk Google-ansat beskyldt for at stjæle hemmeligheder om AI Tensor-chipsAI-supercomputer fra Novo Nordisk og NvidiaNvidia præsenterer ny AI-chip

    EMNE

    Per Rådberg Nagbøl, ITUCarsten Ingerslev, ErhvervsstyrelsenArtikel på Videnskab.dk om XRAIPer Nagbøls afhandling om XRAI
  • I denne episode ser vi nærmere på deepfakes og ikke mindst på de juridiske aspekter af fænomenet – fra personlighedsret til de strafferetlige forhold.

    Deepfakes er en teknologi, der bruger kunstig intelligens til at skabe overbevisende billeder, lyd og video, hvor en persons ansigt eller stemme bliver erstattet med en andens. Afhængig af omstændighederne kan det faktisk give indhold, der er fuldstændig kunstigt fabrikeret, men ser helt ægte ud.

    Deepfakes kan misbruges på mange måder – til politisk propaganda, phishing-angreb og fake news, men det er måske også på sin plads at nævne, at de 'syntetiske medier' også sagtens kan anvendes i mere positive sammenhænge.

    Det er ikke umiddelbart åbenlyst hvad man kan gøre for at begrænse de negative konsekvenser af deepfakes, udover at retsforfølge de tilfælde hvor teknologien bliver misbrugt og overtræder gældende lov.

    Det fortæller advokat Jakob Plesner Mathiasen fra Gorrissen Federspiel, som især beskæftiger sig med det man kalder entertainment-ret.

    Lyt med 🤖

    LINKS

    NYHEDER

    Rapport om techgiganter og AIMistrals og Microsoft indgår partnerskab – men EU løfter pegefingerenElon Musk lægger sag an mod OpenAI

    DEEPFAKES

    Jakob Plesner Mathiasen - Gorrissen FederspielHeyGen til avatarerElevenLabs laver stemmeklonerKan techgiganterne også hjælpe i kampen mod deepfakes?Han skulle nok ikke have deepfaket Joe BidenSora – OpenAIs nye videoværktøj
  • I denne episode ser vi nærmere på brugen af AI i advokatbranchen.

    I juni sidste år fik den amerikanske advokat Steven Schwartz ørerne i maskinen, da det viste sig at han havde fået hjælp af ChatGPT i forberedelsen til en af sine sager.

    Flere af de retssager som ChatGPT fandt frem til Steven Schwartz og hans hold var det pure opspind. ChatGPT havde ganske enkelt hallucineret dem frem. Ups.

    Men derfor kan der jo sagtens være andre måder at bruge AI på i hverdagen, også hvis man er advokat eller arbejder i et advokatfirma. Og der er næppe tvivl om, at vi med de nyeste AI-modeller har fået værktøjer som sagtens kan tackle mange af advokaternes opgaver.

    Jeg har besøgt Marlene Winther Plas og Sarah Paustian Sander i DLA Piper for at høre mere om hvordan advokater bruger AI i hverdagen – og ikke mindst hvor man måske skal være mere varsom...

    Lyt med 🤖

    LINKS

    NYHEDER

    Meta vil have vandmærker i alle AI-billeder på Facebook, Instagram og ThreadsOpenAI indfører vandmærker i DALL-EDet er godt at techgiganter arbejder med vandmærker......men forskere viser, at de nemt kan omgåsMicrosoft og OpenAI siger at hackere bruger ChatGPT i deres angrebMozilla: AI-"venner" stjæler dine dataChatGPT – nu med mere hukommelse, på godt og ondt...

    AI OG JURA

    10 råd til dit arbejde med ChatGPT og anden generativ AI | JurainfoArtikel: Hvis du vil dybere i hvor godt ChatGPT klarer sig indenfor juraAI i DLA PiperMarlene Winther PlasSarah Paustian Sander
  • Femtech er teknologi – gadgets, apps og tjenester – der er målrettet kvinder. Det kan være små devices der kan hjælpe med at forudsige at der er en hedetur på vej, apps som kan lave analyser af hvornår brugeren har ægløsning, eller "bare" almindelige tjenester som handler om at tracke sundhed og aktivitet, men som har særlig fokus på kvinders fysiologi og behov.

    Og naturligvis kan AI også spille en stor rolle her – selvom det ligesom i alle andre sammenhænge kræver at man er bevidst om beskyttelsen af private data, problemer med bias, manglende transparens og de andre udfordringer ved anvendelsen af AI.

    Jeg har haft besøg i studiet af Vanessa Carpenter, der blandt andet har arbejdet med forskning i produkter og tjenester i kategorien femtech.

    Derudover er der som sædvanlig også korte AI-nyheder, denne gang blandt andet om deepfakes og hvordan spædbørn lærer sprog.

    Lyt med 🤖

    LINKS

    NYHEDER

    AI-deepfakes af Taylor Swift kommer fra 4chan - The New York Times

    Sag mod George Carlin - deepfake comedy – WIRED

    Kamera på baby kan måske lære AI nye måder at tilegne sig sprog

    Sag mod OpenAI i Italien - BBC News

    Billed-generator i Google Bard (men ikke i EU...) – TechRadar

    AndersGPT

    Arc Search på iPhone

    FEMTECH

    Vanessa Carpenter på LinkedIn

    Vanessa er ny medredaktør på Techtruster.dk

    Artikel om tracking af hjertefunktion hos kvinder – Techtruster

    AVA cyklus-tracking

    ThermaBand hjælper i overgangsalderen

    Artikel om privatliv og sikkerhed i femtech

    BMC Medical Ethics-artikel om privatliv, AI og femtech

    Base med AI-og-femtech-virksomheder

    Caroline Criado Perez: "Invisible Women" – hvis du vil grave dybere i udfordringen

    Leslie Laurence, Beth Weinhouse: "Outrageous Practices: How Gender Bias Threatens Women's Health"

  • Som mange nok husker, så var der i starten af december sidste år temmelig meget tovtrækkeri i de sidste forhandlinger om den såkaldte AI Act, altså den europæiske forordning om kunstig intelligens.

    Hele 37 timer skulle parterne sidde omkring bordet, helt op til deadline – og lidt over – før de blev enige, blandt andet om hvordan man overhovedet skal definere AI.

    AI Act er blevet beskrevet som en regulering der tager udgangspunkt i beskyttelse af EUs borgere, og det er der naturligvis mange som er glade for – men ikke alle. AI Act er også blevet kritiseret for at lægge for store begrænsninger og administrative byrder på virksomheder, og kritikerne siger at det vil hæmme innovationen i Europa.

    I denne episode dykker vi ned i EUs AI Act, som nu meget snart blandt andet kommer til at betyde, at alle tjenester, værktøjer eller produkter som bruger kunstig intelligens skal klassificeres for hvilket niveau af risiko løsningen har for brugerne

    Vi har talt med professor Rebecca Adler-Nissen fra Institut for Statskundskab på Københavns Universitet om hendes vurdering af forordningen, balancen mellem regulering og forretning, og hvordan den kommer til at beskytte EUs borgere

    Derudover er der som sædvanlig korte AI-nyheder fra nær og fjern – denne gang blandt andet om kaniner og Kina.

    Lyt med! 🤖

    LINKS

    NYHEDER

    Rabbit r1 – din nye håndholdte AI-assistent?

    Samsungs S24-serie er propfuld af AI

    Har det kinesiske militær virkelig særadgang til Baidus Ernie Bot?

    Zuckerberg og Meta vil bygge generel kunstig intelligens

    OM AI ACT

    Nyhed fra Parlamentet efter de afsluttende forhandlinger

    Spørgsmål og svar om AI Act (fra Kommissionen)

    Den oprindelige tekst fra EUR-Lex

  • De store AI-modeller er trænet på helt kolossale mængder af data. Og modeller som fx Stable Audio, der kan lave AI-genereret musik, er trænet på tusinder og atter tusinder af sange, symfonier, tekster og andet input, og det er dét materiale som er råstof til de tekster eller musikstykker, som modellerne spytter ud.

    Men det er ikke helt ligetil at finde ud af hvilke sange der er del af træningsmaterialet, eller hvordan sangskriverne (måske) skal kompenseres, hvis deres værker er blevet brugt i de store AI-modeller.

    Som et nedslag i dén problematik har jeg inviteret Nicolai Franck fra KODA i studiet til en snak om sangskrivere, træningsdata, generativ AI og ikke mindst om penge og ophavsret.


    LINKS

    NYHEDER

    "AI" i fastfood-drivethrough

    114 millioner km i selvkørende biler

    CyberRunner labyrint-kuglespil video

    Apple vil lave AI 'on device'

    New York Times sagsøger OpenAI og Microsoft

    MUSIK OG AI

    KODA

    Nicolai Franck – tech scout i KODA

    Ed Newton-Rex stopper i Stability AI

    AI allevegne i musikbranchen

    Kulturministeren vil reformere ophavsret i AI-alderen

    Hvorfor AI-firmaer ikke vil betale for brug af træningsdata?

  • I denne episode af AI Denmark ser vi tilbage på 2023 – året hvor både sprogmodeller, AI-regulering og dystopiske fremtidsvisioner for alvor blev mainstream.

    Det bliver dog langtfra en altomfattende eller udtømmende gennemgang – til gengæld bliver det forhåbentlig afvekslende. Det har i hvert fald for mig været både informativt, hyggeligt og ikke mindst overraskende at tage sådan en lyntur gennem 2023, for det *er* virkelig vildt hvad der er sket på bare ét år.

    Men for at skabe bare en lille smule overblik og ikke bare slavisk gennemgå 2023 måned for måned, så har jeg lavet en håndfuld kategorier, og fundet nogle af de vigtigste, sjoveste eller mest interessante historier fra hver kategori.

    Kategorierne er:
    - techgiganter og big business
    - produkter og tjenester
    - kreative outputs
    - kunstig intelligens i Danmark
    - regulering og jura
    - hype og dystopi

    Velkommen til en tur med snapshots fra Mindernes Allé.

    Tak for i år – og jeg håber vi høres ved igen i AI-året 2024 🤖

  • Tidligere i år præsenterede Goldman-Sachs en analyse, som viste at AI og automatisering globalt helt eller delvis ville overtage i størrelsesordenen 300 millioner jobs.


    Det er dog klart, at det er meget svært at forudsige noget særligt præcist om konsekvenserne af AI-bølgen for arbejdsmarkedet – dels fordi det afhænger temmelig meget af den konkrete branche og det specifikke job, dels fordi der er voldsomt meget usikkerhed på spil.


    Ser man lidt nærmere på den enkelte jobs, så er der nogle undersøgelser der viser, at konsulenter, der bruger AI er markant mere produktive end dem der ikke gør. Omvendt bliver resultaterne typisk mere ensartede og mindre kreative.


    For at få et overblik på hvordan AI rammer jobs og arbejdsmarked i denne omskiftelige tid har jeg talt med Jacob Rubæk Holm, der er lektor på Aalborg Universitets Business School. Han har forsket i hvordan automatisering har påvirket arbejdsmarkedet, og følger naturligvis også den aktuelle bølge af generativ AI tæt.

    Lyt med 🤖


    LINKS

    NYHEDER

    The Atlantic: Balladen i OpenAI... – var det pengene der vandt, spørger The Guardian?

    DataEthics forlader ADD

    KL og Dansk Erhverv ønsker sig en AI Taskforce

    EMNE

    Jacob Rubæk Holm AAU Business School

    Artikel: Eksperiment med ChatGPT og produktivitet i Boston Consulting Group

    Tager AI dit job – eller bliver det "bare" anderledes?

    DR: ChatGPT stjæler allerede jobs

    Hør også AI Denmark ep 6 om Botcaster-projektet

  • I denne episode skal det handle om OpenAI og nyhederne fra deres udviklerkonference Dev Day.

    Det er svært at forudsige hvad Sam Altmans fyring kommer til at betyde for OpenAI og udviklingen af nye tjenester og produkter, men firmaet har ansat en ny direktør og man må formode at de fortsætter driften, inklusive lanceringen af de nye produkter, de fortalte om på deres konference den 6. november.

    Så i et hektisk forsøg på at følge bare nogenlunde med, sætter vi fokus på nyhederne fra Dev Day, med hjælp fra machine learning ingeniør Kasper Junge og lektor Roman Jurowetzki.

    Og der er masser at tale om. Vi fik blandt andet en ny opdateret version af GPT-4 – som nu kommer med turboboost – lavere priser for forbrug, bedre tekst-til-tale, og meget mere. Og så var der især fokus på en slags personlige ChatGPT-assistenter, som firmaet kalder GPTs.


    Lyt med 🤖

    LINKS

    NYHEDER

    Aktuel status for balladen i OpenAI

    Sarah Silvermans søgsmål møder en skeptisk dommer

    Stability-chef forlader firmaet

    Cruise-medstifter siger også farvel og tak

    Bing AI Chat er nu – også – Copilot hos Microsoft


    EMNE

    Se keynoten fra OpenAIs Dev Day – dengang Altman stadig var direktør

    Kasper Junge

    Roman Jurowetzki

    Podcasten Verbos – med Kasper Junge og Jonas Høgh Kyhse-Andersen

  • I denne episode besøger vi Thomas Terney, der aktuelt er stifter og direktør i svømmetracker-virksomheden Athlee, men også har en AI-forskerkarriere og mange års ledelseserfaring bag sig.

    Han fortæller om hvordan han selv bruger generativ AI til massevis af opgaver i hverdagen, og ser et kæmpe potentiale i teknologien, ikke mindst for ledere.

    Derudover har vi et par korte AI-nyheder – denne gang med fokus på regulering af kunstig intelligens.

    Lyt med 🤖

    LINKS

    NYHEDER:

    G7 vedtager adfærdskodeks for AI

    Joe Biden udstikker præsidentiel ordre om AI i USA

    Flydende datacenter vil være uden for regulatorisk rækkevidde

    TEMA:

    Thomas Terney

    Svømmetracker-firmaet Athlee

    Inspiration til at eksperimentere med prompts