Episodes
-
In dieser spannenden Folge dringen wir tief in die Welt der Künstlichen Intelligenz ein. Beginnend mit der Zukunft der KI auf Smart Devices und der Exploration von Mini-Modellen wie Phi 3 von Microsoft, navigieren wir durch die ethischen und technischen Herausforderungen der KI. Wir diskutieren über die Verkleinerung von Modellen für eine effiziente Nutzung auf Smartphones und die Besonderheiten der Mehrsprachigkeit in KI-Systemen. Die Episode enthüllt auch Einblicke in die Crescendo-Attacke, eine Methode, um KI-Modelle auszutricksen, und berührt die Grenzen von Hardware-Gadgets wie dem Humane AI Pin oder Limitless AI. Abschließend werfen wir einen kritischen Blick auf die Auswirkungen von Automatisierung und KI auf den Arbeitsmarkt, einschließlich Amazons Einsatz von 750.000 Robotern, und diskutieren, wie KI die Arbeitswelt verändern könnte.
Links zur Folge:
Das Microsoft Paper über Crescendo-Attacken
Microsoft’s Vorsichtsmaßnahmen
Das Phi-3 Modell
Der Humane AI Pin
Der Review von Marques Brownlee
Limitless AI
Pressemitteilung zu Amazon Go Just Walk Out Stores & Vorwürfen
Gebt uns gerne Feedback
Email: [email protected]
Stefan Wiezorek: https://www.linkedin.com/in/stefanwiezorek/
Dr. Jannis Buchsteiner: https://www.linkedin.com/in/jannis-buchsteiner/
Borge Claussen: https://www.linkedin.com/in/borge-claussen-440200174/
00:00 Intro & Teaser
01:39 Die Crescendo-Attacke: Wie LLMs manipuliert werden können
15:36 Die Herausforderung der Mehrsprachigkeit und Modellgröße
15:47 Phi-3 von Microsoft: Portable Mini-LLMs?
27:29 Der Humane AI pin: The Worst Product I’ve Ever Reviewed
39:54 Limitless AI: Sprachgesteuerter KI-Assist für 99 USD
43:47 Das Ende der Amazon Go Just Walk Out Shops & AI-Washing -
In dieser Episode von Tensorraum tauchen wir, Arne Meyer und Stefan Wiezorek, tief in die neuesten Trends, Entwicklungen und Beobachtungen im Bereich der künstlichen Intelligenz ein, mit einem tieferen Blick auf den AI Index Report der Stanford University. Wir diskutieren über den bemerkenswerten Anstieg von KI-Patenten in China, die weltweiten Investitionen in KI-Technologien und geben Einblicke in die überraschende Lage des KI-Arbeitsmarktes. Ein zentrales Thema ist die vorherrschende Rolle von Python in der KI, der aktuelle Stand der KI-Modellentwicklung mit Hinblick auf Meta’s neues Llama 3 Modell, der Einfluss von synthetischen Daten auf das Training dieser Modelle und die sich verändernde Landschaft der KI-Integration in Geschäfts- und alltägliche Anwendungen. Dabei erörtern wir spannende Fragen zur Zukunft der KI und deren Auswirkungen auf den Arbeitsmarkt und die Forschung.
Links zur Folge:
Mehr zu Meta’s KI Plänen (nur mit VPN verfügbar): https://www.meta.ai
Meta’s Llama 3 Modell: https://llama.meta.com/llama3/
Stanford AI Index: https://aiindex.stanford.edu/report/
Der ‘Humane AI pin’ review von Marques Brownlee: https://www.youtube.com/watch?v=TitZV6k8zfA
Links zu uns:
https://www.tensorraum.de
Email: [email protected]
Stefan Wiezorek: https://www.linkedin.com/in/stefanwiezorek/
Dr. Arne Meyer: https://www.linkedin.com/in/arne-meyer-6a36612b9/
Kapitel
00:00 Intro & Teaser
01:31 Microsofts Video-Modell: Vasa-1
02:48 Microsofts vorzeitig veröffentlichte LLM: WizardLM-2
06:00 Lama 3: Das neue Open Source Modell von Meta
10:11 LLM Modellgrößen und ihre Anzahl von Parametern - Anwendungen?
13:20 Metas Klitzekleine Investition - 24.000x H100 Nvidia GPUs
15:14 Meta AI - Zukunftspläne und Träume
19:00 Nutzungsmöglichkeiten & Big Tech im Rennen
30:29 Der Stanford AI Index Report - Ländervergleiche, Patente & Investments
41:02 Synthetische Trainingsdaten und ob sie helfen
49:30 Der Gender Gap in Informatik
50:57 Der KI-Jobmarkt: Stellen, Skills & Karrierepfade
01:00:28 Robotics & die Zukunft der Saugroboter/ Humanoiden Roboter -
Missing episodes?
-
Jannis, Arne & Stefan bringen euch wie jeden Dienstag die aktuellen Neuigkeiten aus der Tech Welt rund um Künstliche Intelligenz.
Interessant Themen heute sind:
Führt KI zu mehr Fairness?
Warum hat London das Potential zu einem DER KI Hubs weltweit zu werden
Und Arne freut sich auf das neue Modell von Mistral
Arne's Buch Tipp: Der Chip Krieg von Chris Miller
"In seinem Bestseller "Der Chip-Krieg" skizziert Chris Miller eindrucksvoll die Hintergründe des Wettlaufs um immer kleinere, leistungsstärkere Chips"
Deutsche Version: https://amzn.eu/d/gNtgpCl
Englische Version: https://amzn.eu/d/c2heWUZ
Link zur Pressemitteilung von Microsoft: https://blogs.microsoft.com/blog/2024/04/07/announcing-new-microsoft-ai-hub-in-london/
Linkedin Artikel von Stefan über den Wettbewerb um Cloud-Computing: https://www.linkedin.com/posts/stefanwiezorek_der-cloud-computing-krieg-activity-7185502111835529216-G_29?utm_source=share&utm_medium=member_desktop
00:00 Intro
02:00 Höhle der Löwen & Co
07:13 Arne's Buch Tipp
09:00 Führt KI zu mehr Fairness
16:25 KI Hub London
28:00 GPT mit YouTube trainiert
34:00 Mistral AI neues Modell
45:39 Google Paywall -
Jannis, Borge & Stefan bringen euch wie jeden Dienstag die aktuellen Neuigkeiten aus der Tech Welt rund um Künstliche Intelligenz.
Interessant Themen heute sind:
Was macht man eigentlich mit OpenAI's neuer Voice Engine?
Und natürlich, welche Gefahren stehen dahinter?
Sollte es eine Kennzeichnungspflicht für KI Content geben?
Wiedermal die Google Suche und mögliche Bezahlmodelle
und vieles mehr...
00:00 Intro
02:00 Arbeitslose / Wer wird arbeitslos?
05:00 KI Content in Social Media
07:35 OpenAI Voice Engine
24:28 Kleine News inkl. Supercomputer
30:55 KI Business Modelle
42:45 ScaleAI
48:49 Devin Text To Code -
Interessante Stellen & Diskussionen aus dieser Folge sind:
Der Andreessen Horowitz Survey: https://a16z.com/generative-ai-enterprise-2024/
Wir diskutieren ab Minute 46 noch mal um die Sora Trainings Daten und das Trainieren von Modellen generell
Und im hinteren Drittel diskutieren wir darüber on Microsoft und Apple eigene Basis Modelle bauen werden...
00:00 Intro
01:00 StreetFighter LLM
04:22 PerplexityPro AGAIN
09:10 Umfrage a16z
14:50 Umfrage Teil2
20:32 Umfrage Teil3
30:46 Chatbots Teil4
36:45 Neue Mistral Version & Qwen
46:00 Trainieren von Modellen
50:30 Apple MM1
56:54 Apple & Claude3
01:00:32 Amazon & Anthropic -
Warum sind NVIDIA Grafikkarten eigentlich so gut? Warum spielt AMD keine Rolle? Was unterscheidet Croq zu NVIDIA? Warum sind Croq Beschleuniger schneller bzw. sind sie das überhaupt? -> All diese Fragen versuchen heute Christian, Arne und Stefan für euch zu beantworten. Reinhören!
Beste PR für Croq: https://wow.groq.com/hey-elon-its-time-to-cease-de-grok/
00:00 Intro
01:52 Warum führt NVIDIA bei AI
11:42 NVIDIA & AMD
17:48 Blackwell
24:46 Wem gehört die Zukunft
32:59 Croq als Wettbewerber
46:49 Energieverbrauch von Chips
49:05 Die Zukunft -
Wir arbeiten uns durch einen Handelsblatt-Artikel, der Aleph Alpha und Mistral vergleicht, und sind etwas überrascht über das Fazit desselben. Dann tauchen wir etwas technischer in das Mathe-LLM Orca ein, um dann wieder zu philosophieren über Chatbots als Psychiater mit dem PI-Chatbot, welcher Empathie hat.
00:00 Intro
07:22 Rabbit R1
00:11 Aleph Alpha vs Mistral AI
33:40 OrcaMath LLM
49:32 PI - Chatbot mit Empathy
57:30 Figure AI -
FEHLER KORRIGIERT! - Wir hatten aus versehen eine alte Folge hochgeladen!
Wir reden über Artificial General Intelligence. Dabei beantworten wir vor allem die Frage, was AGI ist. Zur Hilfe kommt uns da die Definition aus einem Paper von Google. Dennoch hinterfragen wir kritisch, ob man das überhaupt heute schon bauen kann und ob wir AGI bald erwarten können. Ebenso stellen wir die Frage, ob wir überhaupt AGI brauchen.
Google Definition von AGI: https://arxiv.org/pdf/2311.02462.pdf
00:00 Intro
02:16 Was ist AGI?
07:38 KI lernt selber
13:48 Führen LLMs zu AGI?
20:30 Ist Sora AGI?
25:21 Sam Altmans Definition von AGI
27:37 AGI Use Cases
38:28 KI Stromverbrauch
39:59 KI als große Gefahr
Folgt uns auf LinkedIn: https://www.linkedin.com/company/tensorraum-podcast -
Heute mit: Jannis Buchsteiner & Stefan Wiezorek
Alibabas Image AI Tool EMO: https://humanaigc.github.io/emote-portrait-alive/
Interessante Themen aus der Folge
Kann Sora Physik? Spoiler: Nein - Aber was kann das Welten Modell von Meta?
Jannis ist begeistert über das neue Image AI Tool von Alibaba - Stefan ist sich da nicht so sicher und ist dann doch eher bei Sora (trotz der Kritik der letzten Folge)
Claude 3 langweilt uns eher, wo bleiben die Modelle mit 2 Millionen Parametern?
Was erhofft sich Elon Musk aus der Anklage gegen OpenAI
Klarna zeigt einen der ersten stärkeren AI Use Cases in Deutschland
Und wir fragen uns, kann Apple Künstliche Intelligenz?
00:00 Intro
01:44 Kann Sora Physik?
06:10 EMO von Alibaba
13:15 Claude 3
23:26 Elon Musk vs OpenAI
38:29 Klarna chatbot im Kundenservice
45:15 Apple & AI, geht das? -
Wir reden über das besten Open Source Modell Mistral Au Large und warum es ein Match-Made-In-Heaven ist wenn Microsoft den Mistral Deal abschließt um dann festzustellen dass heimlich Alibaba mit dem wirklich besten Open Source Modell Qwen um die Ecke kommt. Jannis wirft eine smarte Hypothese ins Rennen dass die eigentliche Macht den Cloud Anbietern (AWS, Azure und Co gehört) und Arne sagt wir müssen viel öfter über den KI Energie Verbrauch reden.
00:00 Intro
06:59 Mistral & Microsoft Deal
17:14 Alibaba Model Qwen
28:45 Cloud Anbieter Exkurs
33:46 Ai Energieverbrauch
38:28 Croq, Nvidia & Co
47:48 Googles Bilder Thematik -
In der Welt der Künstlichen Intelligenz hat keine Nachricht so viel Aufmerksamkeit generiert wie die Ankündigung von OpenAIs Sora. Wir schauen uns Sora an und besprechen, was technisch dahintersteckt. Und warum wir glauben, dass es jetzt nicht so relevant ist, wie man glauben mag.
Und warum vor allem die Neuigkeiten zu OpenAIs Konkurrenten für die Google-Suche wesentlich relevanter sind, sowohl für den Markt als auch für die Technologie. Ebenso werfen wir einen kurzen Blick auf die Gedächtnisfunktion von OpenAI und warum auch diese eine weitere wichtige Komponente im Bereich der Künstlichen Intelligenz sein wird/ist.
00:00 Intro
01:40 Sora
12:00 Sora Beispiele
14:07 Text-To-Image
17:57 Sora Use-Cases
26:48 OpenAI Google Suche
41:55 OpenAI Memory -
Wir besprechen die wichtigsten Themen aus dem Januar 2024 im Bereich Künstliche Intelligenz!
Hier eine Übersicht
Das beste SLM
Phi2 von Microsoft ist öffentlich zugänglich
Warum Arne ein großer Fan von kleinen Modellen ist
Copilot Update & Deucalion
Microsoft arbeitet an eigenem Modell (Refinement von GPT?)
Starke Dall-e Verbesserungen im Copilot
Deepfake Betrug
20 Millionen USD Betrug mit gefakter Telco
Live Audio und Video gefaked
Nightshade Datenvergiftung
Warum Stefan Zweifel habt ob das wirklich funktionieren kann
Warum Arne glaubt dass es trotzdem funktionieren könnte
Multimodal in OpenSource Modellen
Wir driften ab und reden über Apples beste Innovation (nein es ist nicht die Apple Vision Pro^^)
Agents bei OpenAI
Warum Agents wirklich the Next Big Thing sind (Sora ist es nicht, dass in der nächsten Folge)
Braucht man wirklich einen Rabbit R1?
00:00:00 Intro
00:05:01 Das beste SLM
00:10:26 Copilot Update & Deucalion
00:19:37 Deepfake Betrug
00:26:52 Nightshade Datenvergiftung
00:33:38 Multimodal in OpenSource Modellen
00:42:20 Agents bei OpenAI
00:52:03 Googles Interne Ziele -
In der heutigen Episode diskutieren Jannis, Christian und Stefan über das Phänomen der Halluzinationen bei KI-Modellen. Sie ergründen, warum künstliche Intelligenz Schwierigkeiten hat, zwischen richtig und falsch zu unterscheiden, und wie es dazu kommt, dass KI manchmal Informationen erfindet.
Die Themen der Folge umfassen:
Den Einfluss von Halluzinationen und die Wichtigkeit, dieses Problem anzugehen.
Die Entstehung von Halluzinationen.
Methoden zur Vermeidung von Halluzinationen.
Die Frage, warum wir Halluzinationen nicht als das bezeichnen, was sie tatsächlich sind: Fehler.
Links aus der Folge:
Galileo Halluzination Index: https://huggingface.co/blog/leaderboards-on-the-hub-hallucinations
Arc Search (App aus dem Vorgespräch): https://apps.apple.com/us/app/arc-search/id6472513080 -
Im Tensorraum-Podcast diskutieren Jannis, Borge und Stefan über die Rolle der Künstlichen Intelligenz (KI) in der Arbeitswelt und welche Jobs besonders gefährdet sind. Während einige Berufe durch Automatisierung und Effizienzsteigerung bedroht scheinen, betonen sie auch die Chancen, die KI für neue Arbeitsplätze und die Unterstützung bestehender Jobs bietet. Sie argumentieren, dass KI nicht nur als Ersatz, sondern auch als Werkzeug zur Verbesserung der menschlichen Arbeit und zur Schaffung neuer Berufsfelder genutzt werden kann. Wird der Mensch eventuell demnächst das „Feature“, welches dich hervorhebt aus der Masse der KI-Tools?
Links aus der Folge:
Paper über den Arbeitsmarkt: GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models: https://ar5iv.labs.arxiv.org/html/2303.10130
Spiegel Artikel: https://www.spiegel.de/kultur/literatur/rie-kudan-japanische-literaturpreis-gewinnerin-benutzte-chatgpt-a-50da9589-9df2-4e65-a43a-564312b4301f -
In dieser Folge dreht sich alles um Hugging Face und die Welt der Open Source Modelle
Was steckt hinter Hugging Face
Wie profitieren Entwickler von Hugging Face und seinen Angeboten
Stefan hinterfragt die Nachhaltigkeit des Hugging Face Geschäftsmodells
Was bedeutet überhaupt Open Source bei Modellen?
Das sind einige der Themen, die wir in dieser kurzen Folge über Hugging Face diskutieren ;) -
In der fünften Episode unseres Podcasts “#5 Der Kampf der LLM Chatbots - Google vs OpenAI” tauchen wir tief in die Welt der Künstlichen Intelligenz ein. Wir vergleichen die Leistung von ChatGPT und Gemini und analysieren, was die Benchmarks bei Gemini bedeuten. Dabei werfen wir auch einen Blick auf mögliche Underdogs in diesem Rennen. Am Ende der Episode geben wir einige Empfehlungen für weitere spannende KI-Projekte.
-
Themen der Folge.
Wie sah die KI-Welt vor OpenAI aus (2012-2015)?
An welcher Stelle ist Google falsch abgeholt und wurde von OpenAI überholt?
Wie steht OpenAI heute dar im Vergleich zu anderen LLM's?
Achtung: Diese Folge ist stellenweise schon sehr "technisch". Zur Hilfe haben wir ein paar Begriffe hier in den Show Notes erklärt!
Word2Vec
Word2Vec ist ein Modell, das Wörter in numerische Vektoren umwandelt, um semantische und syntaktische Beziehungen zwischen Wörtern zu erfassen. Es basiert auf der Idee, dass Wörter, die in ähnlichen Kontexten vorkommen, in der Regel auch ähnliche Bedeutungen haben.
Recurrent Neural Networks (RNN)
Stell dir vor, du schaust dir einen Film an und versuchst, die Handlung zu verstehen. Du erinnerst dich an das, was du in den vorherigen Szenen gesehen hast, um zu verstehen, was in der aktuellen Szene passiert. Das ist im Grunde das, was ein Recurrent Neural Network (RNN) tut.
Attention is all you need / Transformer Technologie.
“Attention is All You Need” präsentiert die Transformer-Architektur, ein Modell für natürliche Sprachverarbeitung, das auf Aufmerksamkeitsmechanismen basiert. Diese Mechanismen ermöglichen es dem Modell, langfristige Abhängigkeiten und kontextuelle Beziehungen zwischen Wörtern zu erfassen. Im Vergleich zu traditionellen Modellen sind aufmerksamkeitsbasierte Modelle überlegen. -
Diesmal befassen wir uns mit der unterschätzten Gefahr, die KI-generierte Deep Fakes für die Gesellschaft darstellen, und beleuchten, wie diese fortschrittliche Technologie unsere Wahrnehmung der Realität beeinflussen kann. Trotz ihrer potenziellen Risiken untersuchen wir auch die positiven Aspekte von KI Deep Fakes und diskutieren die zukünftige Entwicklung dieser Technologie und stellen die Frage: Werden wir in der Lage sein, KI-generierte Fakes in Zukunft zuverlässig zu erkennen?
00:00 Introduction
10:00 Test
20:00 Weiterer Test
30:00 Ende - Show more