Episódios

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évolution de l'IA générative dans les organisations, les avancées mathématiques de ChatGPT, les précisions sur le droit d'auteur pour les œuvres générées par l'IA, le nouveau modèle Mistral Small 3, les innovations d'Experian en matière de sécurité numérique, l'intégration des feuilles de calcul dans l'ère de l'IA, et les progrès des modèles de langage ouverts.Commençons avec le politologue Henry Farrell, qui estime que l'intelligence artificielle générative n'est pas une rupture, mais une continuité technologique. Selon lui, l'IA générative, notamment les grands modèles de langage ou LLM, fluidifie les organisations en renforçant la cohérence. Elle ne remplace pas l'analyse, mais aide à gérer la complexité en accomplissant des micro-tâches, en créant des cartes de connaissances, en automatisant des tâches routinières et en facilitant la traduction, au sens large du terme. Ainsi, l'IA générative pourrait remplacer une partie de la pseudo-littérature organisationnelle et améliorer la coordination des activités.Passons maintenant à OpenAI, qui a annoncé une nouvelle version de son modèle ChatGPT, nommée "o1". Ce modèle présente des améliorations notables en mathématiques et en raisonnement. Alors que les versions précédentes peinaient avec le raisonnement logique, "o1" a réussi à obtenir un score de 83% à l'examen de qualification pour l'Olympiade Mathématique Internationale, un concours prestigieux pour les lycéens. Niloofar Mireshghallah, chercheuse à l'Université de Washington, explique que cette avancée est due à la capacité du modèle à effectuer un "raisonnement en chaîne", similaire à une démonstration étape par étape en mathématiques. Cela permet au modèle de tester et corriger ses propres réponses, rendant le raisonnement plus transparent.En ce qui concerne le droit d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA, basées sur des instructions textuelles, ne sont pas protégées par le droit d'auteur. Même si un utilisateur fournit des instructions détaillées, le résultat est considéré comme une interprétation de l'IA. Cependant, si un humain intègre des éléments générés par l'IA dans une œuvre, celle-ci peut être protégée dans son ensemble. L'Office insiste sur l'importance du contrôle humain dans le processus créatif pour déterminer l'éligibilité à la protection.Du côté des modèles open-source, le laboratoire français Mistral a lancé Mistral Small 3, un modèle optimisé pour la latence avec 24 milliards de paramètres, distribué sous licence Apache 2.0. Cette licence permet une utilisation commerciale sans contraintes supplémentaires. Mistral Small 3 se positionne comme un concurrent sérieux face à des modèles plus volumineux, offrant des performances comparables au Llama 3.3 70B tout en étant plus de trois fois plus rapide. Disponible en téléchargement pour un déploiement local, il offre un bon compromis entre performance et utilisation des ressources.En matière de sécurité numérique, Experian innove avec des solutions d'IA pour améliorer la vérification d'identité et la détection de fraude. En utilisant les analyses comportementales de NeuroID, Experian examine les habitudes de frappe, les mouvements de la souris et d'autres interactions pour différencier les vrais utilisateurs des bots. Sans recourir aux informations personnelles identifiables, cette approche renforce la confidentialité tout en s'adaptant continuellement aux nouvelles techniques de fraude. L'objectif est de détecter efficacement les bots tout en minimisant les perturbations pour les utilisateurs légitimes.Abordons maintenant l'intégration des feuilles de calcul dans l'ère de l'IA. Hjalmar Gislason, fondateur et PDG de Grid, travaille sur l'adaptation des feuilles de calcul traditionnelles aux technologies d'IA. L'idée est de rendre ces outils accessibles via des interfaces en langage naturel, des services web et des appels de fonctions. En utilisant des graphiques de dépendance et des métadonnées, les feuilles de calcul peuvent être enrichies, permettant des analyses plus avancées et une interaction utilisateur améliorée. L'utilisation de modèles de langage de grande taille ouvre également de nouvelles possibilités pour automatiser et optimiser les processus métier.Enfin, parlons des progrès des modèles de langage ouverts avec le lancement de Tülu 3 405B. Avec 405 milliards de paramètres, ce modèle surpasse les performances de modèles comme DeepSeek V3 et GPT-4o dans de nombreux benchmarks. Tülu 3 405B utilise l'apprentissage par renforcement avec récompenses vérifiables, ce qui lui permet d'exceller dans des tâches comme la résolution de problèmes mathématiques. Malgré les défis techniques liés à son échelle, l'équipe a réussi à optimiser le processus d'entraînement, rendant ce modèle accessible à la communauté. Le code et le modèle sont disponibles en ligne, encouragent les utilisateurs à explorer ses capacités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI enquête sur DeepSeek, le réglage fin des grands modèles de langage devient plus accessible, le lancement de ChatGPT Gov pour les agences gouvernementales, les avancées de DeepSeek Janus-Pro face à DALL-E 3, et les outils pour travailler avec des modèles de langage sur Mac. C’est parti !OpenAI soupçonne que ses modèles d'IA ont été utilisés pour former ceux de DeepSeek, une entreprise chinoise d'intelligence artificielle. DeepSeek a récemment perturbé la Silicon Valley en lançant des modèles d'IA à moindre coût, concurrençant directement les offres phares d'OpenAI. OpenAI et Microsoft enquêtent sur une possible utilisation abusive de l'API d'OpenAI par DeepSeek, suspectant que l'entreprise ait intégré les modèles d'OpenAI dans les siens. Des chercheurs en sécurité de Microsoft ont détecté une exfiltration massive de données via des comptes développeurs d'OpenAI liés à DeepSeek. De plus, OpenAI a découvert que DeepSeek a utilisé la distillation, une technique permettant de former des modèles plus petits en extrayant des données de modèles plus grands et performants. Cette pratique, bien que courante, constitue ici une violation des conditions d'utilisation d'OpenAI, car elle sert à créer des modèles concurrents. Ironiquement, OpenAI a elle-même utilisé une grande partie du web sans consentement pour entraîner ses modèles. Face à cette situation, OpenAI engage des contre-mesures et collabore étroitement avec le gouvernement américain pour protéger sa propriété intellectuelle et empêcher les adversaires de s'approprier la technologie américaine.Passons maintenant au réglage fin des grands modèles de langage, qui devient plus accessible grâce à des outils low-code ou no-code. Ces outils permettent de télécharger vos données, de sélectionner un modèle de base et d'obtenir un modèle ajusté sans avoir à coder intensivement. Les LLM fonctionnent en deux étapes principales : l'entraînement préalable et le réglage fin. Lors de l'entraînement préalable, le modèle est exposé à d'énormes ensembles de données textuelles pour apprendre les structures du langage. Cependant, ces modèles restent généralistes. Le réglage fin intervient pour spécialiser le modèle sur une tâche précise en ajustant ses paramètres sur un jeu de données spécifique. Traditionnellement coûteux en calcul, le réglage fin est désormais optimisé grâce à des techniques comme LoRA et QLoRA. LoRA, par exemple, réduit le nombre de paramètres entraînables par 10 000 fois et la mémoire GPU requise par trois, tout en maintenant des performances élevées. Des outils comme Axolotl simplifient encore le processus, offrant des configurations prédéfinies et nécessitant un minimum de codage. Ainsi, il est possible de régler efficacement un LLM pour répondre aux besoins spécifiques de votre application, même avec des ressources limitées.Au chapitre des nouveautés, OpenAI a lancé ChatGPT Gov, une version spécialisée de ChatGPT destinée aux agences gouvernementales. Ces agences peuvent déployer ChatGPT Gov dans leur cloud Microsoft Azure commercial ou gouvernemental, offrant un meilleur contrôle sur la sécurité, la confidentialité et la conformité réglementaire. Aligné sur des normes strictes comme FedRAMP High, ChatGPT Gov propose des fonctionnalités similaires à ChatGPT Enterprise, telles que la sauvegarde et le partage de conversations dans un espace de travail sécurisé, le téléchargement de fichiers texte et image, et l'utilisation de GPT-4. Les employés peuvent également créer et distribuer des GPT personnalisés au sein de leur espace de travail. Plus de 90 000 utilisateurs dans plus de 3 500 agences gouvernementales aux États-Unis ont déjà échangé plus de 18 millions de messages sur ChatGPT pour améliorer leurs opérations quotidiennes. Par exemple, le laboratoire de recherche de l'Air Force l'utilise pour des tâches administratives et d'éducation à l'IA, tandis que le laboratoire national de Los Alamos facilite la recherche scientifique et l'innovation grâce à cet outil. Au niveau local, le bureau des traductions du Minnesota a amélioré ses services pour les communautés multilingues, obtenant des traductions plus rapides et précises, tout en réduisant les coûts. De même, la Pennsylvanie constate une réduction significative du temps consacré aux tâches routinières.En parlant de DeepSeek, leur modèle Janus-Pro est présenté comme un générateur d'images d'IA open source capable de surpasser DALL-E 3 d'OpenAI, tout en étant proposé à une fraction du prix. Sam Altman, figure influente de l'IA, a salué cette avancée et annoncé l'arrivée imminente de l'intelligence artificielle générale. Le modèle R1 de DeepSeek, sous licence MIT, offre des performances élevées à coût réduit, ce qui intensifie la concurrence dans le domaine. Nvidia, leader des technologies d'IA, ne voit cependant pas DeepSeek comme une menace immédiate. Cela intervient dans un contexte de restrictions d'exportation limitant la capacité de Nvidia à fournir ses puces à certains pays, afin d'empêcher le développement de supercalculateurs à des fins militaires.Enfin, Jeff Triplett partage ses expériences pour travailler avec des modèles de langage sur Mac. Il utilise principalement Ollama, un serveur capable de télécharger et d'exécuter des centaines de modèles d'IA, et son client graphique Ollamac, qui facilite la rédaction d'invites et la gestion de l'historique. Grâce à Tailscale, il accède à ses appareils Mac à distance, ce qui lui permet de prototyper à domicile tout en exécutant des modèles plus grands depuis son bureau. Jeff souligne que faire tourner des modèles localement est possible, mais le matériel grand public est souvent limité par la RAM et le GPU. Par exemple, un modèle de 8 milliards de paramètres nécessite environ 8 Go de RAM. Il recommande de consulter régulièrement la page des modèles d'Ollama et la chaîne YouTube de Matt Williams pour rester informé des évolutions. Pour gérer les bibliothèques Python, il utilise Pydantic AI, qu'il trouve plus efficace que d'autres options comme LangChain.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Estão a faltar episódios?

    Clique aqui para atualizar o feed.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Des avancées majeures avec Qwen2.5-Max et DeepSeek, les défis du lancement de LUCIE et l'impact potentiel de l'IA sur le revenu de base universel. C’est parti !Commençons avec la présentation de Qwen2.5-Max. Ce nouveau modèle d'intelligence artificielle à mélange d'experts (MoE) a été pré-entraîné sur plus de 20 trillions de tokens et post-entraîné grâce au Supervised Fine-Tuning et au Reinforcement Learning from Human Feedback. Disponible via Alibaba Cloud, Qwen2.5-Max surpasse DeepSeek V3 dans plusieurs benchmarks tels que Arena-Hard, LiveBench et LiveCodeBench, tout en offrant des performances compétitives sur MMLU-Pro. Les utilisateurs peuvent désormais interagir avec Qwen2.5-Max sur Qwen Chat ou intégrer son API, compatible avec celle d'OpenAI, dans leurs applications.Passons maintenant à DeepSeek, qui fait sensation dans le monde de l'intelligence artificielle. Cette startup chinoise a réussi à entraîner ses modèles d'IA à un coût réduit à seulement 1/30e du coût habituel, défiant ainsi les géants du secteur. Leur application est rapidement devenue virale, surpassant même ChatGPT dans les classements des magasins d'applications. DeepSeek a atteint cet exploit en optimisant le matériel existant plutôt qu'en s'appuyant sur des puces sophistiquées. Ils ont entraîné uniquement les parties essentielles de leurs modèles, réduisant le gaspillage de ressources. De plus, ils ont utilisé une technique innovante de compression pour réduire les coûts d'inférence et ont mis l'accent sur l'apprentissage par renforcement pour améliorer l'efficacité.Cette réussite a eu un impact significatif sur le marché américain. DeepSeek est devenue l'application la plus populaire sur l'App Store d'Apple aux États-Unis, dépassant les modèles d'OpenAI. Cette avancée a provoqué une chute de plus de 12 % des actions de Nvidia, soulevant des questions sur la domination potentielle des entreprises américaines comme OpenAI et Nvidia dans l'industrie de l'IA. Malgré les restrictions américaines sur l'exportation de puces avancées vers la Chine, DeepSeek a réussi à développer des modèles performants, remettant en question l'idée que la puissance matérielle est le principal moteur de l'innovation en IA.Cependant, tout ne se passe pas sans embûches dans le domaine de l'IA. Le lancement de LUCIE, un modèle de langage open source français, en est un exemple. Dévoilé le 22 janvier 2025 lors du Paris Open Source AI Summit, LUCIE est le fruit d'une collaboration entre Linagora et le consortium OpenLLM France. Malgré un entraînement sur un corpus de 3 000 milliards de tokens et une architecture ambitieuse inspirée de Llama 3.1, le lancement a été entaché de problèmes techniques et des résultats décevants. Les utilisateurs ont rencontré des temps d'attente prolongés et des erreurs flagrantes dans les réponses fournies par LUCIE. Cette situation souligne l'importance d'une communication transparente et d'une phase de test maîtrisée lors du déploiement de nouveaux modèles d'IA.Sur un autre plan, l'essor de l'intelligence artificielle relance le débat sur le revenu de base universel. L'idée que l'IA pourrait automatiser de nombreuses tâches humaines soulève des questions sur l'avenir du travail. Si l'IA venait à remplacer une grande partie des emplois actuels, le RBU pourrait devenir une nécessité pour couvrir les besoins de base de la population. L'IA pourrait même contribuer à financer ce RBU en générant une valeur économique supplémentaire grâce à l'automatisation et à l'efficacité. Cependant, cette vision s'accompagne de défis technologiques, comme la résolution des problèmes d'"hallucination" de l'IA, et sociopolitiques, tels que l'acceptation publique d'un tel système.Enfin, DeepSeek continue de bousculer l'industrie de l'IA en dévoilant des modèles toujours plus performants. Leur modèle phare, le R1, est réputé rivaliser avec l'équivalent o1 d'OpenAI. De plus, leur modèle multimodal Janus Pro surpasserait des solutions établies comme Stable Diffusion et DALL-E 3. Ces modèles sont désormais disponibles sur des plateformes telles qu'Azure AI Foundry de Microsoft et GitHub, permettant une adoption plus large. Cependant, des enquêtes sont en cours pour déterminer si DeepSeek a utilisé des ressources d'OpenAI dans le développement de ses modèles, ce qui pourrait entraîner des implications légales.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les agents intelligents qui révolutionnent nos interactions en ligne, l’importance des données en temps réel pour les chatbots, et comment LLaMA de Meta démocratise la création de modèles de langage avancés. C’est parti !Les agents d'intelligence artificielle sont en train de transformer notre quotidien numérique. Contrairement aux applications traditionnelles qui suivent des instructions rigides, ces agents utilisent l'apprentissage automatique pour apprendre et s'adapter à de nouvelles situations. Imaginez un assistant capable de planifier vos vacances en fonction de vos préférences, de réserver un restaurant qui correspond à vos goûts culinaires, ou même de gérer vos achats en ligne en anticipant vos besoins.Ces agents intelligents s'appuient sur le traitement du langage naturel, une branche de l'IA qui permet aux machines de comprendre et de répondre au langage humain de manière fluide. Cela signifie que vous pouvez interagir avec eux comme vous le feriez avec une personne, sans avoir à utiliser des commandes spécifiques ou un jargon technique. L'expérience utilisateur en est grandement améliorée, rendant la technologie plus accessible à tous.Dans le contexte actuel, où la simplification de la vie quotidienne est recherchée, ces agents IA pourraient bien être la prochaine grande avancée technologique. Ils ont le potentiel de rendre les services en ligne plus personnalisés, en s'adaptant continuellement aux préférences et aux habitudes de chaque utilisateur. C'est une étape importante vers une technologie qui non seulement répond à nos besoins, mais anticipe et facilite nos interactions.Passons maintenant aux chatbots et à l'importance des données en temps réel. Les chatbots d'IA sont devenus incontournables pour l'engagement client, la récupération d'informations et l'automatisation des tâches. Cependant, leur efficacité dépend fortement de la qualité et de l'actualité des données qu'ils utilisent. Beaucoup de chatbots s'appuient sur des bases de connaissances statiques, ce qui peut limiter leur capacité à fournir des réponses précises dans des domaines en constante évolution.L'intégration de données structurées en temps réel offre plusieurs avantages majeurs. Premièrement, elle permet aux chatbots de fournir des réponses qui reflètent les informations les plus récentes, ce qui est crucial dans des domaines tels que les actualités, les mises à jour de produits ou les découvertes scientifiques. Deuxièmement, cela améliore l'engagement des utilisateurs. Des interactions dynamiques et contextuelles rendent les conversations plus pertinentes et significatives, renforçant la satisfaction et la confiance des utilisateurs.Des entreprises comme Bright Data proposent des jeux de données spécialement conçus pour alimenter les projets d'IA et les modèles de langage à grande échelle. Leur jeu de données pour l'IA offre plus de 5 milliards d'enregistrements, provenant de plus de 100 sources fiables, tous structurés, nettoyés et actualisés mensuellement. Cela garantit que les chatbots disposent d'une base de connaissances à jour et de haute qualité.Pour intégrer un tel jeu de données dans votre chatbot, plusieurs étapes sont nécessaires. D'abord, disposer des outils adéquats, comme une clé API et un environnement de développement adapté, par exemple en Python. Ensuite, il faut charger et traiter le jeu de données à l'aide de scripts qui gèrent l'intégration avec le modèle d'IA. Enfin, créer une interface utilisateur interactive pour permettre aux utilisateurs d'interagir facilement avec le chatbot via un navigateur web. En suivant ces étapes, vous pouvez améliorer significativement la précision et la pertinence des réponses fournies par votre chatbot.Terminons avec LLaMA de Meta, l'un des modèles de langage qui a attiré beaucoup d'attention. Si vous avez déjà pensé à créer votre propre modèle d'IA mais que la complexité vous a freiné, LLaMA pourrait être la solution idéale. Ce n'est pas simplement un modèle de langage, c'est un outil conçu pour aider les développeurs à comprendre comment ces modèles sont construits, optimisés et appliqués.Imaginez que vous dirigez une startup et que vous souhaitez développer un chatbot qui donne des conseils médicaux précis. Plutôt que de vous reposer sur des modèles génériques qui pourraient ne pas saisir les nuances du domaine médical, LLaMA vous permet de créer un modèle sur mesure, adapté à votre public et à vos besoins spécifiques.L'un des atouts majeurs de LLaMA est son architecture modulaire. Cela signifie que vous pouvez adapter le modèle en fonction de vos besoins sans avoir à tout reconstruire de zéro. Contrairement à l'idée reçue selon laquelle le développement d'un grand modèle de langage est coûteux et complexe, Meta a conçu LLaMA pour être accessible. Il démontre qu'il est possible de créer des modèles puissants sans disposer des ressources d'un géant de la technologie.En rendant la création de modèles de langage plus accessible, LLaMA encourage l'innovation et permet à un plus grand nombre de développeurs et d'entreprises de participer à l'évolution de l'IA. Cela pourrait conduire à une diversité accrue dans les applications de l'IA, avec des modèles spécialement conçus pour répondre à des besoins spécifiques dans différents secteurs.En conclusion, l'intelligence artificielle continue de progresser, rendant la technologie plus intelligente, plus personnalisée et plus accessible. Des agents intelligents qui facilitent nos tâches quotidiennes, aux chatbots enrichis par des données en temps réel, en passant par des modèles de langage adaptables comme LLaMA, ces innovations ouvrent de nouvelles perspectives passionnantes. Elles offrent des outils puissants pour améliorer notre interaction avec la technologie et, finalement, simplifier nos vies.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : nous aborderons l'importance de l'open source selon Simon Willison, les astuces anti-bots de la YouTubeuse f4mi, les révélations sur le fonctionnement de ChatGPT, les défis pour évaluer les nouveaux modèles d'IA, l'ingénierie des invites pour les développeurs, les préoccupations de sécurité soulevées par Microsoft, et les améliorations apportées à Canvas par OpenAI. C’est parti !Commençons avec Simon Willison, qui a partagé son point de vue sur l'importance de publier du code en open source. Après avoir travaillé pour une grande entreprise où il ne pouvait pas réutiliser son propre code, il a décidé de publier tout son travail en open source. Pour lui, c'est une façon de résoudre un problème une fois pour toutes et d'éviter de réinventer la roue à chaque nouvel emploi. En ajoutant une licence open source, de la documentation et des tests unitaires, il s'assure de pouvoir réutiliser et maintenir son code, quel que soit son futur employeur.Poursuivons avec la YouTubeuse f4mi, qui a découvert que ses vidéos étaient copiées par des bots pour créer des contenus spam générés par ChatGPT, avec des voix robotiques et des images répétitives. Pour contrer cela, elle a utilisé le format de sous-titres Advanced SubStation, qui permet de personnaliser les polices, les couleurs et le positionnement. En inondant les scrapers de texte invisible hors écran et en décomposant les sous-titres lisibles en lettres individuelles, elle a rendu ses vidéos illisibles pour les bots tout en restant compréhensibles pour les spectateurs humains. Ses tests ont montré que les sites de scraping d'IA interprétaient ses vidéos comme du texte technique du XIXᵉ siècle, perturbant ainsi leur fonctionnement.Passons maintenant aux révélations de Simon Willison sur le fonctionnement de ChatGPT. Il a partagé des informations sur le "prompt de l'opérateur", qui sert de guide détaillé pour le modèle. Ce prompt insiste sur la nécessité de demander une confirmation finale à l'utilisateur avant toute action ayant des effets externes, comme l'envoi de messages ou la gestion de comptes, afin d'éviter les actions non désirées. Le système est également conçu pour refuser les tâches potentiellement nuisibles, telles que celles liées à la violence ou à la fraude. De plus, il ne doit pas résoudre les CAPTCHA, ces tests utilisés pour différencier les humains des robots, pour prévenir les attaques de type "prompt injection". Concernant la sécurité des images, ChatGPT ne doit pas identifier les personnes sur les photos, même célèbres, afin de protéger leur identité. Il est intéressant de noter que, contrairement à d'autres outils d'OpenAI, le mécanisme d'appel d'outils JSON n'est pas utilisé ici, montrant une approche différente dans la gestion des fonctionnalités.En parlant de modèles d'IA, examinons les défis liés à leur évaluation. Chaque semaine, de nouveaux modèles apparaissent, promettant des améliorations ou des fonctionnalités inédites. Cependant, il est difficile de mesurer réellement leur efficacité. Les benchmarks ne révèlent pas toujours ce qu'un modèle peut accomplir de nouveau ou de mieux. Une approche consiste à les tester dans des flux de travail personnels pour observer s'ils apportent des résultats plus précis ou différents. Parfois, un modèle amélioré produit des résultats plus précis, mais pour certaines tâches, la notion de "meilleur" reste subjective. Par exemple, dans l'utilisation de différentes versions de Midjourney, la qualité des résultats peut varier sans qu'il y ait de réponse objectivement "meilleure". Dans des domaines comme le développement logiciel et le marketing, l'IA générative trouve un usage évident, car les erreurs y sont faciles à détecter. En revanche, pour des tâches où la qualité est binaire — correcte ou incorrecte — les modèles actuels ne sont pas toujours fiables, surtout si l'utilisateur n'est pas expert. Cela soulève des questions sur la capacité des modèles d'IA à évoluer vers une intelligence artificielle générale.Abordons maintenant l'ingénierie des invites, essentielle pour les développeurs. L'ingénierie des invites, ou "prompt engineering", consiste à créer des requêtes précises pour obtenir les meilleurs résultats d'une IA générative. C'est comme définir un objectif clair pour votre assistant IA afin qu'il sache exactement ce que vous attendez. Dans le développement logiciel, une invite bien structurée peut conduire à des résultats plus précis et pertinents, permettant de rationaliser les flux de travail, de gagner du temps et d'améliorer la productivité. Les assistants de codage IA comme GitHub Copilot, ChatGPT et Claude transforment notre façon de coder, devenant de véritables partenaires de programmation. Une bonne ingénierie des invites fait la différence entre une IA qui multiplie votre productivité et une source de dettes techniques. Elle améliore la précision, l'efficacité, la cohérence et favorise l'innovation. Les applications incluent la génération de code, la révision, l'assurance qualité, la documentation, le DevOps, le débogage, la conception d'architecture et la sécurité.Sur le thème de la sécurité, Microsoft a récemment admis que l'intelligence artificielle ne pourra jamais être totalement sécurisée. Les modèles d'IA amplifient les risques de sécurité existants et en créent de nouveaux. Des chercheurs ont testé plus de 100 produits pour arriver à cette conclusion, utilisant le "red-teaming", une méthode où une équipe simule les actions d'un adversaire pour identifier les vulnérabilités d'un système. Des attaques basées sur le gradient sont un exemple de technique utilisée pour compromettre les modèles d'IA, exploitant les vecteurs de gradient pour tromper le modèle. Un autre problème est la prolifération d'articles scientifiques falsifiés générés par des IA de type GPT sur des plateformes comme Google Scholar, menaçant l'intégrité de la recherche académique. De plus, un sceptique de Wall Street a exprimé des doutes sur la fiabilité de l'IA pour résoudre des problèmes complexes, soulignant que la technologie actuelle commet encore trop d'erreurs, limitant son efficacité dans des applications critiques.Enfin, OpenAI a amélioré la fonctionnalité Canvas de ChatGPT, la rendant plus polyvalente et facile à utiliser. Parmi les nouveautés, le support du nouveau modèle "o1", accessible via un sélecteur de modèles pour les abonnés Pro, Plus et Team. Une des améliorations les plus pratiques est la possibilité de rendre du code HTML et React directement dans Canvas, permettant aux utilisateurs de prévisualiser le code sans avoir à le télécharger ni l'exécuter. Pour les utilisateurs de Mac, Canvas est entièrement intégré à l'application de bureau ChatGPT, et OpenAI annonce que les utilisateurs Enterprise et Education pourront bientôt bénéficier de ces fonctionnalités. Lancé en octobre 2023, Canvas représente la première mise à jour significative de l'interface de ChatGPT depuis le lancement du chatbot. Le nouvel éditeur rend le travail avec le contenu généré par l'IA plus intuitif, en permettant par exemple de surligner des parties spécifiques du résultat pour les discuter directement avec ChatGPT, et inclut un émulateur Python intégré pour exécuter du code et voir immédiatement les résultats.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un piège pour les robots d'IA, des débats sur l'intégration des assistants IA dans l'enseignement, des critiques sur l'adoption rapide de l'IA par certaines entreprises, la création d'une API avec Google Apps Script, les avancées des modèles de langage dans le raisonnement, et l'impact de l'IA en médecine d'urgence. C’est parti !Un programmeur pseudonyme a développé Nepenthes, un "piège à goudron" open source destiné à piéger indéfiniment les robots d'entraînement d'IA. Ce programme génère une série de pages aléatoires infinies où chaque lien renvoie vers lui-même, créant une boucle sans fin pour les robots d'exploration. L'objectif est de gaspiller le temps et les ressources de calcul de ces robots, qui parcourent en permanence de vastes portions d'internet. Les propriétaires de sites web peuvent déployer Nepenthes pour protéger leur contenu contre le scraping ou pour épuiser les ressources des entreprises d'IA. Cette initiative soulève des questions sur les méthodes de protection du contenu en ligne face aux intelligences artificielles.Passons maintenant aux débats sur l'intégration des assistants IA dans l'enseignement. En novembre 2024, l'équipe du curriculum de The Carpentries a organisé deux discussions communautaires sur l'utilisation des assistants LLM, tels que ChatGPT et GitHub Copilot, dans leurs ateliers. Environ 40 membres se sont réunis pour partager leurs expériences. Certains utilisaient déjà ces outils quotidiennement, tandis que d'autres étaient simplement curieux. Ceux qui les integraient dans leur enseignement mettaient l'accent sur la démonstration des capacités des outils, mais aussi sur leurs erreurs potentielles et les dangers d'une utilisation non critique. Un thème récurrent était la nécessité de "démystifier" ces technologies, en expliquant leur fonctionnement, leurs limites, et en les différenciant des moteurs de recherche traditionnels. Malgré des réserves, il y avait un consensus sur l'importance de ne pas ignorer ces outils dans les ateliers. Toutefois, des préoccupations subsistent, notamment sur l'accessibilité de ces outils dans certaines institutions, les différences entre versions payantes et gratuites, et le temps nécessaire pour les intégrer sans empiéter sur d'autres contenus essentiels.Abordons maintenant les critiques concernant l'adoption rapide de l'IA par certaines entreprises. Louis Derrac a exprimé sa déception vis-à-vis d'un article de Fairphone sur l'intelligence artificielle. Il critique le manque de clarté et de profondeur, notamment sur les impacts écologiques, sociaux et politiques des IA génératives. Ces technologies peuvent renforcer les biais, accroître les inégalités et standardiser les représentations culturelles selon des perspectives occidentales. Derrac aurait souhaité que Fairphone prenne une position ferme contre l'utilisation de l'IA générative, au moins jusqu'à ce que ses implications soient mieux comprises. Il s'étonne également de la rapidité avec laquelle Infomaniak, une entreprise suisse, a intégré des IA génératives dans ses produits. Bien que cette entreprise se présente comme une alternative écologique et éthique aux géants de la tech, Derrac doute qu'une IA générative puisse être réellement écologique et éthique. Malgré ses critiques, il reconnaît que Fairphone et Infomaniak restent des alternatives sérieuses, mais il questionne la pertinence de suivre la tendance de l'IA sans une réflexion approfondie sur ses conséquences.Passons à un sujet plus technique avec la création d'une API Web grâce à Google Apps Script. Cet outil permet aux développeurs d'automatiser et d'étendre les applications de Google Workspace. Pour interagir avec Google Sheets et récupérer des données de manière programmatique, il faut d'abord configurer sa feuille de calcul en notant l'ID du document. Ensuite, on écrit le script approprié dans l'éditeur Apps Script, définissant les fonctions nécessaires. Le script est ensuite déployé en tant qu'application Web, générant une URL qui permet d'accéder à l'API. Les données peuvent être récupérées en utilisant des outils comme Postman, un navigateur ou un script JavaScript avec l'API Fetch. Ce processus permet d'intégrer efficacement des données dynamiques de Google Sheets dans diverses applications.Abordons maintenant les avancées dans les modèles de langage capables de raisonner. La capacité d'une machine à ne pas seulement régurgiter des informations, mais à résoudre des problèmes de manière structurée et logique, devient une caractéristique clé des modèles de langage de grande taille les plus avancés. Des modèles comme DeepSeek, ceux d'OpenAI ou Google Gemini, démontrent leur efficacité en matière de pensée logique, de résolution de problèmes et de prise de décision en plusieurs étapes. Cependant, développer de tels modèles présente des défis, notamment les limites de l'ajustement fin supervisé, qui nécessite de vastes quantités de données étiquetées. L'apprentissage par renforcement offre une alternative, mais comporte ses propres obstacles, comme le retour d'information rare et retardé. Pour surmonter ces défis, des techniques comme PRIME (Process Reinforcement through IMplicit REwards) et DeepSeek-R1 ont été développées. PRIME fournit des signaux de retour d'information fréquents sans nécessiter d'étiquetage détaillé, tandis que DeepSeek-R1 utilise une approche en plusieurs étapes combinant apprentissage par renforcement et une petite quantité de données supervisées. Ces avancées promettent une amélioration des capacités de raisonnement des modèles de langage, réduisant les coûts de développement et rendant l'IA avancée plus accessible.Enfin, examinons l'impact de l'IA en médecine d'urgence. Les modèles de langage à grande échelle, comme ChatGPT, ont un impact croissant dans le domaine médical. Une revue de la littérature a analysé les capacités actuelles de l'IA dans le traitement des données de santé, l'imagerie médicale et l'amélioration des processus cliniques. Les IA offrent des avantages dans le triage, l'optimisation des flux de patients, la gestion des lits et la priorisation des soins. Cependant, des risques subsistent, notamment les "hallucinations" de l'IA qui peuvent générer des informations erronées, et les limitations des modèles face à des cas rares ou atypiques, pouvant compromettre la sécurité des patients. L'étude souligne la nécessité d'une réglementation rigoureuse et de normes de sécurité pour intégrer l'IA de manière sûre et efficace dans la pratique clinique.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un programme pour piéger les robots d'IA, le débat sur l'enseignement des assistants IA dans les ateliers Carpentries, les critiques de Louis Derrac sur l'intégration de l'IA par Fairphone et Infomaniak, comment créer une API pour Google Sheets avec Apps Script, les avancées du raisonnement dans les modèles de langage, et l'impact de l'IA en médecine d'urgence. C’est parti !Un programmeur anonyme a créé Nepenthes, un "piège à goudron" open source destiné à piéger indéfiniment les robots d'entraînement d'IA. Ce programme génère des pages web avec des liens aléatoires pointant vers lui-même, entraînant les robots dans une boucle sans fin. Ainsi, il gaspille leur temps et leurs ressources de calcul. Les propriétaires de sites web peuvent utiliser Nepenthes pour protéger leur contenu contre le scraping ou pour épuiser les ressources des entreprises d'IA. Bien que les robots soient massivement déployés sur internet, Nepenthes les force à tourner en rond, à moins qu'ils ne détectent qu'ils sont piégés dans cette boucle.Passons à la communauté The Carpentries, qui s'interroge sur l'intégration des assistants d'IA génératifs comme ChatGPT et GitHub Copilot dans leurs ateliers. En novembre 2024, l'équipe de curriculum a organisé deux discussions réunissant environ 40 membres pour débattre de cet enjeu. Certains participants utilisent déjà ces outils quotidiennement, tandis que d'autres restent prudents. Ils ont relevé que si les assistants IA peuvent aider les apprenants avancés, ils peuvent aussi nuire à ceux qui manquent de connaissances de base en programmation. Des préoccupations éthiques ont également été soulevées, notamment concernant le manque d'attribution des données utilisées pour entraîner les modèles et l'impact environnemental significatif du processus d'entraînement. La question demeure : comment enseigner ces outils tout en respectant les valeurs fondamentales de la communauté ?Abordons maintenant les critiques de Louis Derrac envers Fairphone et Infomaniak concernant l'IA. Il exprime sa déception face à un article de Fairphone qu'il juge peu clair sur les impacts des IA génératives. Ces technologies, qui créent du contenu à partir de données existantes, ont selon lui des conséquences écologiques, sociales et politiques importantes, comme le renforcement des biais et des inégalités. Derrac aurait souhaité que Fairphone prenne une position ferme contre l'utilisation de l'IA générative jusqu'à une meilleure compréhension de ses implications. Il est également surpris par la rapidité avec laquelle Infomaniak, une entreprise suisse se positionnant comme écologique et éthique, a intégré ces technologies dans ses produits. Il remet en question la possibilité qu'une IA générative soit réellement écologique et éthique. Malgré ses réserves, il reconnaît que Fairphone et Infomaniak restent des alternatives sérieuses aux géants de la technologie, et appelle à une réflexion plus approfondie sur l'intégration de l'IA dans les produits grand public.Du côté pratique, Google Apps Script offre un moyen puissant d'automatiser et d'étendre les applications de Google Workspace. Il permet notamment de créer une API web pour interagir avec Google Sheets et récupérer des données de manière programmatique. Pour cela, il faut d'abord configurer sa feuille Google en notant son ID unique dans l'URL. Ensuite, écrire un script dans l'éditeur Apps Script qui définit comment les données seront récupérées. Une fois le script prêt, il doit être déployé en tant qu'application web, ce qui génère une URL spécifique. Cette API peut alors être testée et utilisée dans diverses applications, facilitant l'accès dynamique aux données de Google Sheets sans avoir à manipuler directement le fichier.Penchons-nous sur les avancées en matière de raisonnement dans les modèles de langage de grande taille. La capacité d'une IA à raisonner, c'est-à-dire à résoudre des problèmes complexes de manière logique et structurée, devient un critère majeur. Des modèles comme ceux de DeepSeek, OpenAI et Google Gemini dominent actuellement, capables de gérer des tâches impliquant une pensée logique et une prise de décision en plusieurs étapes. Cependant, entraîner ces modèles à raisonner présente des défis. Les méthodes d'ajustement supervisé traditionnelles nécessitent de vastes quantités de données étiquetées, ce qui est coûteux et peu pratique pour des tâches complexes. L'apprentissage par renforcement offre une alternative, mais il est entravé par des retours d'information rares et retardés. Une approche innovante, appelée PRIME (Process Reinforcement through Implicit Rewards), propose un cadre où des signaux de récompense denses et implicites sont utilisés pour guider le modèle sans nécessiter d'étiquettes détaillées. Cela améliore l'efficacité de l'entraînement et permet aux modèles d'acquérir des capacités de raisonnement plus avancées.Enfin, évoquons l'impact de l'IA en médecine d'urgence. Les modèles de langage à grande échelle, comme ChatGPT, ont le potentiel de transformer les pratiques cliniques. Ils peuvent aider au triage, optimiser les flux de patients, gérer les lits et prioriser les soins. Cependant, des risques subsistent, notamment les hallucinations de l'IA qui peuvent générer des informations erronées, et les limitations dans la gestion de cas rares ou atypiques. Une revue de la littérature souligne que, malgré le potentiel révolutionnaire de l'IA en médecine d'urgence, une approche réglementaire et des normes de sécurité rigoureuses sont essentielles pour garantir une intégration sûre et efficace. Il est crucial de trouver un équilibre entre l'innovation technologique et la préservation de la sécurité des patients.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un programme qui piège les robots d'IA, des discussions sur l'intégration des assistants LLM dans l'enseignement, des critiques sur l'adoption de l'IA par des entreprises technologiques alternatives, la création d'une API Web avec Google Apps Script, les avancées du raisonnement machine, et l'impact de l'IA en médecine d'urgence. C’est parti !Commençons avec le programme Nepenthes, développé par un codeur anonyme. Nepenthes est un outil open source conçu pour piéger indéfiniment les robots d'entraînement de l'intelligence artificielle dans une série infinie de pages web aléatoires. Il agit comme un "piège à miel", détournant les ressources des entreprises d'IA en empêchant leurs robots d'accéder au contenu des sites web. Le nom Nepenthes fait référence à un genre de plantes carnivores qui capturent leurs proies. Les propriétaires de sites web peuvent utiliser cet outil pour protéger leur contenu contre le scraping, une pratique où des programmes automatisés parcourent le web pour extraire des données. En générant des liens qui renvoient toujours vers lui-même, Nepenthes emprisonne les robots d'exploration dans une boucle sans fin, les empêchant d'accéder à d'autres contenus.Passons maintenant aux discussions au sein de la communauté The Carpentries. En novembre 2024, l'équipe du curriculum a organisé deux sessions sur l'enseignement des assistants LLM dans les ateliers. Environ 40 membres de la communauté se sont réunis pour échanger sur l'utilisation des outils d'IA générative comme ChatGPT et GitHub Copilot. Certains participants ont partagé comment ils intègrent déjà ces outils dans leur travail quotidien et dans leurs cours, tandis que d'autres ont exprimé des réserves concernant leur utilisation excessive et les implications éthiques. Les débats ont porté sur les avantages potentiels d'enseigner ces outils pour aider les apprenants à acquérir des compétences modernes, mais aussi sur les défis, tels que l'accessibilité limitée dans certaines institutions, les coûts associés aux versions payantes, et le besoin d'aligner cette introduction avec les valeurs fondamentales de la communauté, notamment l'engagement envers l'accès pour tous.Dans une autre actualité, Louis Derrac a exprimé sa déception concernant un article de Fairphone sur l'intelligence artificielle. Il critique le manque de clarté et de profondeur de l'article, particulièrement en ce qui concerne les impacts écologiques, sociaux et politiques des IA génératives. Ces technologies peuvent renforcer les biais, accentuer les inégalités et standardiser les représentations culturelles selon une perspective occidentale. Derrac aurait souhaité que Fairphone prenne une position ferme contre l'utilisation des IA génératives tant que leurs implications ne sont pas pleinement comprises. Il s'interroge également sur la décision d'Infomaniak d'intégrer des IA génératives dans ses produits, remettant en question la possibilité pour une IA de rester véritablement écologique et éthique. Malgré ses critiques, il reconnaît que Fairphone et Infomaniak restent des alternatives sérieuses face aux géants de la technologie.En parlant d'outils technologiques, intéressons-nous à Google Apps Script. Cet outil puissant permet aux développeurs d'automatiser et d'étendre les applications de Google Workspace. Grâce à Google Apps Script, il est possible de créer une API Web pour interagir avec Google Sheets et récupérer des données de manière programmée. Les étapes à suivre incluent la création et la configuration de la feuille Google, l'écriture du script pour extraire les données, le déploiement en tant qu'application Web avec les autorisations appropriées, et le test de l'API à l'aide d'outils comme Postman ou en intégrant le script dans une application en utilisant l'API Fetch en JavaScript. Cette méthode offre une solution efficace pour intégrer des données dynamiques de Google Sheets dans diverses applications, facilitant ainsi le développement de projets interactifs.Abordons maintenant les avancées en matière de raisonnement machine. La capacité d'une machine à raisonner, c'est-à-dire à résoudre des problèmes de manière structurée et logique, émerge comme une caractéristique clé des modèles de langage de grande taille les plus avancés. Des modèles comme ceux de DeepSeek, OpenAI et Google Gemini dominent actuellement le classement Chatbot Arena grâce à leur efficacité dans ce domaine. Ils peuvent gérer des tâches impliquant la pensée logique, la résolution de problèmes complexes et la prise de décision en plusieurs étapes. Cependant, développer de tels modèles présente des défis importants. Les méthodes d'ajustement supervisé traditionnel exigent de vastes quantités de données étiquetées, ce qui peut être coûteux et peu pratique. L'apprentissage par renforcement présente une alternative prometteuse, mais il comporte des obstacles tels que le retour d'information rare et retardé. Surmonter ces défis est essentiel pour créer des systèmes d'IA plus puissants, adaptables et mieux alignés sur les besoins humains.Enfin, tournons-nous vers l'impact de l'IA en médecine d'urgence. Les modèles de langage à grande échelle comme ChatGPT ont émergé comme des outils potentiellement transformateurs dans le domaine médical. Ils peuvent assister les professionnels de santé dans le triage, l'optimisation des flux de patients, la gestion des lits et la priorisation des soins. Cependant, ces développements rapides présentent également des risques. Les phénomènes d'hallucination de l'IA, où le modèle génère des informations erronées, peuvent compromettre la sécurité des patients. De plus, ces modèles peuvent avoir des performances limitées face à des cas rares ou atypiques. Pour intégrer l'IA de manière sûre et efficace dans la médecine clinique, il est crucial de mettre en œuvre des normes de sécurité rigoureuses et des pratiques de supervision, afin d'atténuer les risques associés et d'optimiser les bénéfices pour les patients.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les assistants d'IA dans l'apprentissage du code, l'IA qui révolutionne la musique, les nouveaux modèles R1 de DeepSeek, l'alignement des modèles de langage, le déclin de StackOverflow face à l'IA, et l'impact de l'IA générative sur le marketing digital. C’est parti !Commençons par l'utilisation croissante des assistants basés sur des modèles de langage comme ChatGPT par les apprenants en programmation. Les instructeurs sont encouragés à aider les étudiants à comprendre comment utiliser ces outils efficacement, en reconnaissant leurs forces et leurs limites. Il est crucial que les apprenants vérifient toujours le code ou les commandes fournis par ces IA, car ils peuvent contenir des erreurs ou introduire des vulnérabilités. Cette approche est similaire aux conseils donnés lorsqu'ils cherchent de l'aide en ligne : rester critique et prêt à ajuster le code si nécessaire.Passons maintenant au monde de la musique, où l'intelligence artificielle transforme la création et l'interaction avec les compositions musicales. Une série de huit épisodes explore cette révolution. Les IA peuvent désormais générer des musiques originales en analysant des milliers de morceaux, soulevant des questions sur la créativité et l'originalité. Peut-elle composer une symphonie, capturant l'essence humaine de la musique ? Des préoccupations juridiques et éthiques émergent également avec le "plag'IA", lorsque l'IA reproduit des éléments trop similaires à des œuvres existantes. On s'interroge aussi sur la place des robots musiciens dans un orchestre, capables de jouer avec une précision inégalée, mais sans l'émotion humaine. À l'Ircam, des chercheurs explorent la "co-créativité humain-machine", permettant aux musiciens de collaborer avec l'IA pour repousser les limites de la composition. Enfin, on envisage comment Mozart aurait pu composer avec l'IA et à quoi ressemblera la musique du futur.Du côté de la Chine, le laboratoire d'intelligence artificielle DeepSeek a dévoilé sa nouvelle famille de modèles R1 sous licence ouverte MIT. Leur version la plus avancée contient 671 milliards de paramètres, revendiquant des performances comparables au modèle o1 d'OpenAI sur des tests de mathématiques et de programmation. En plus de ce modèle principal, six versions plus petites, appelées "DeepSeek-R1-Distill", ont été publiées, avec des tailles allant de 1,5 à 70 milliards de paramètres. Ces modèles distillés peuvent fonctionner sur un simple ordinateur portable, tandis que le modèle complet nécessite des ressources informatiques plus importantes. Ils intègrent une approche de raisonnement en temps d'inférence, simulant une chaîne de pensée humaine pour résoudre des requêtes complexes. À noter que la version cloud du modèle, conforme aux réglementations chinoises, ne génère pas de réponses sur des sujets sensibles comme Tiananmen ou Taïwan, mais cette limitation n'existe pas en utilisation locale hors de Chine.Abordons maintenant l'alignement des modèles de langage de grande taille. Ce processus vise à garantir que les réponses générées par ces modèles respectent les valeurs et les politiques d'une organisation. Des techniques comme l'apprentissage par renforcement avec retour humain (RLHF) sont utilisées pour ajuster les modèles en fonction des préférences des utilisateurs, un peu comme un manager guide un nouvel employé en formation. L'alignement est continu, car les besoins organisationnels évoluent. Des outils comme Snorkel Flow facilitent ce processus en permettant de distiller la logique des experts en fonctions de marquage applicables à de nombreux ensembles de données, réduisant ainsi le temps nécessaire pour obtenir des résultats de qualité.Parlons ensuite de StackOverflow, qui connaît une baisse significative du nombre de questions posées depuis le lancement de ChatGPT en novembre 2022. Les données montrent que le site n'avait pas connu un volume de questions mensuel aussi bas depuis 2009. Les développeurs semblent se tourner vers les modèles de langage pour obtenir des réponses rapides à leurs problèmes de codage. De plus, StackOverflow a été critiqué pour ses politiques de modération peu accueillantes pour les débutants, ce qui a possiblement poussé les utilisateurs vers d'autres plateformes comme Discord ou Telegram. Cette situation soulève des questions sur l'avenir de StackOverflow et sur la manière dont les modèles de langage continueront à s'entraîner sans ces données précieuses.Enfin, l'intelligence artificielle générative transforme le marketing digital. Des outils tels que ChatGPT, DALL-E et MidJourney permettent aux entreprises de créer du contenu original, de personnaliser les expériences utilisateur et d'analyser les données avec une efficacité inédite. L'IA générative permet la création automatisée de contenu, le design visuel unique pour les campagnes publicitaires et l'optimisation des annonces en segmentant les audiences. Elle offre aussi la possibilité de personnaliser les expériences à grande échelle, en analysant le comportement de milliers de clients pour proposer des offres adaptées en temps réel. Cependant, cette technologie soulève des défis éthiques, notamment en ce qui concerne le plagiat et la création de faux contenus. Des entreprises comme L'Oréal, Renault et Decathlon utilisent déjà ces outils pour améliorer leurs stratégies marketing, et l'IA générative s'annonce comme un acteur majeur dans l'avenir du marketing digital, notamment avec l'intégration de technologies émergentes comme la réalité augmentée.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd'hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les modèles de langage de grande taille, l'arrivée de DeepSeek-R1, l'essor des modèles de bases de données en entreprise, les dernières actualités du monde de l'IA, les enjeux de la vie privée et l'appel à candidatures de Google.org. C’est parti !Commençons par les modèles de langage de grande taille, ou LLM. Ces modèles mathématiques génèrent du texte en prédisant les mots suivants dans une phrase, grâce à un entraînement sur d'immenses quantités de données textuelles issues d'Internet. Par exemple, s'ils commencent avec "Le renard brun rapide saute par-dessus le chien paresseux", ils tentent de prédire les mots suivants en se basant sur les probabilités. Le terme "Large" ne se réfère pas seulement à la quantité de données, mais aussi au nombre colossal de paramètres qu'ils contiennent. GPT-3 d'OpenAI, par exemple, possède 175 milliards de paramètres. Ces paramètres sont ajustés lors de la phase d'entraînement grâce à la rétropropagation, qui compare la sortie du modèle à la valeur attendue pour minimiser l'erreur. Après le pré-entraînement, une étape de renforcement avec retour humain améliore encore leurs interactions. Les LLM utilisent des architectures comme les Transformers et exploitent la puissance des GPUs pour gérer les calculs massifs nécessaires. Ils ont révolutionné des tâches comme la traduction, le résumé de documents et les chatbots, simplifiant des processus auparavant complexes.Passons maintenant à DeepSeek-R1, un nouveau modèle de langage open-source publié sous licence MIT. Ce modèle rivalise avec les géants comme OpenAI en termes de performances de raisonnement, tout en étant dix fois moins coûteux. DeepSeek-R1 appartient à une nouvelle génération de "modèles pensants" qui simulent le raisonnement humain. Contrairement aux modèles traditionnels, il décompose les problèmes, débat des alternatives et s'auto-corrige. Par exemple, lorsqu'on lui demande combien de "R" sont présents dans "strawberry", il détaille son raisonnement étape par étape pour arriver à la réponse. Sur des benchmarks comme AIME 2024, DeepSeek-R1 surpasse le modèle o1 d'OpenAI et est à égalité sur des tâches de codage et de résolution de problèmes réels. Pour atteindre ces résultats, l'équipe a utilisé une technique appelée Group Relative Policy Optimization (GRPO) et a mis l'accent sur des récompenses orientées vers le raisonnement. En libérant les poids et les recettes de distillation, DeepSeek démocratise l'IA en permettant à chacun de construire des modèles spécialisés.En parallèle, une nouvelle vague de modèles, les LDM ou modèles de grandes bases de données, émerge dans le domaine de l'intelligence artificielle. Contrairement aux LLM qui exploitent des données textuelles, les LDM se concentrent sur les données tabulaires des entreprises. Ils permettent d'effectuer des requêtes sémantiques dans les bases de données, comme "Lister tous les clients les plus similaires à Jane Doe". IBM a développé Db2 SQL Data Insights, intégrant ces capacités dans son système. Un exemple concret est celui de Swiss Mobiliar, la plus ancienne compagnie d'assurance privée de Suisse, qui a utilisé l'IA prédictive pour estimer les chances qu'un client potentiel signe un contrat. En appliquant cette méthode à 15 millions de devis d'assurance automobile, ils ont augmenté leurs ventes de sept pour cent en six mois, une performance qui aurait normalement pris deux ans. Cette réussite démontre l'efficacité des LDM dans l'amélioration des processus commerciaux.Dans l'actualité de l'IA, Google et Mistral ont signé des accords respectivement avec l'Associated Press et l'Agence France-Presse pour fournir des actualités à jour via leurs plateformes d'IA. Cela signifie que des chatbots alimentés par l'IA diffuseront des informations récentes, transformant potentiellement la manière dont nous accédons aux nouvelles. De son côté, ChatGPT d'OpenAI a introduit une nouvelle fonctionnalité permettant de gérer des rappels et des listes de tâches, se positionnant davantage comme un assistant personnel. Synthesia, une plateforme de vidéo IA, a levé 180 millions de dollars pour améliorer sa technologie de génération de vidéos d'avatars humains, ce qui pourrait avoir de grandes implications pour la production de contenu numérique. Par ailleurs, de nouvelles directives américaines restreignent l'exportation de puces d'IA vers divers pays, impactant des entreprises technologiques comme Nvidia. L'administration Biden a proposé ces restrictions et a ordonné aux départements de l'Énergie et de la Défense de louer des sites pour des centres de données d'IA et la génération d'énergie propre, soulignant l'importance croissante de l'IA dans la politique industrielle et énergétique des États-Unis.Abordons maintenant les défis de la vie privée liés à l'IA. L'essor de l'IA soulève des questions cruciales en matière de confidentialité. En envoyant de plus en plus de données privées vers des systèmes externes pour traitement, nous exposons nos informations personnelles à des risques de surveillance et d'utilisation abusive. Des organisations, comme une salle de rédaction à but non lucratif mentionnée, ont interdit l'utilisation de modèles d'IA sur des données sensibles et ont mis en place des mesures de chiffrement. Apple propose une approche appelée "Private Cloud Compute", utilisant des dispositifs matériels de confiance dans ses centres de données pour protéger les informations des utilisateurs. Ces préoccupations soulignent la nécessité de réfléchir à qui bénéficient réellement ces technologies : nous, les utilisateurs, ou des entités tierces ?Enfin, Google.org lance un appel à candidatures pour la deuxième cohorte de son programme d'accélération en intelligence artificielle générative. Ce programme vise à aider les organisations à but non lucratif à utiliser l'IA pour avoir un impact social positif. Les participants recevront une formation technique, des crédits Google Cloud, un soutien pro bono de la part des employés de Google et une part d'un financement total de 30 millions de dollars. Lors de la première cohorte, 21 organisations ont développé des solutions alimentées par l'IA générative, servant plus de 30 millions de personnes d'ici 2028. Parmi elles, Tabiya a créé Compass, un agent conversationnel open-source pour réduire le chômage des jeunes, et Materiom a accéléré le développement d'alternatives durables aux plastiques. Les organisations intéressées ont jusqu'au 10 février 2025 pour postuler à ce programme de six mois.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'importance de poser les bonnes questions selon Sam Altman, les nouveaux outils de génération vidéo par IA avec Sora et Veo 2, les avancées dans les modèles de langage biomédical avec OpenBioLLM, les défis de sécurité reconnus par Microsoft, et le nouveau modèle Transformer de Google, Titans. C’est parti !Sam Altman, PDG d'OpenAI, a récemment souligné que dans un monde où l'intelligence artificielle progresse rapidement, savoir poser les bonnes questions est plus précieux que la simple intelligence brute. Lors d'une discussion avec le psychologue Adam Grant dans le podcast ReThinking, ils ont abordé l'importance de "l'art de poser des questions", également connu sous le nom de "prompt engineering". Cette compétence devient essentielle pour tirer le meilleur parti des outils d'IA comme ChatGPT ou Copilot. Microsoft a d'ailleurs lancé la Copilot Academy pour aider les utilisateurs à maîtriser cet art, mettant en avant l'importance croissante de cette compétence dans notre monde de plus en plus numérique.Dans le domaine de l'intelligence artificielle, OpenAI a lancé Sora, un modèle de génération de texte en vidéo. Sora permet de créer des clips vidéo de haute qualité à partir de simples descriptions textuelles en utilisant des storyboards détaillés. Les utilisateurs peuvent personnaliser leurs vidéos en intégrant leurs propres images et clips, avec des résolutions allant jusqu'à 1080p. De son côté, Google a introduit Veo 2, un outil de génération vidéo par IA produisant des vidéos ultra-haute définition jusqu'à 4K. Veo 2 se distingue par sa capacité à comprendre les mouvements humains et les lois physiques, créant des vidéos réalistes et détaillées. Ces outils ouvrent de nouvelles possibilités pour la création de contenu, nécessitant vision, créativité et compétences narratives. Ils pourraient transformer l'industrie cinématographique en offrant des opportunités de réduction des coûts et de prototypage rapide, tout en soulevant des questions éthiques et légales concernant les droits d'auteur et l'utilisation de contenus générés par IA.Passons maintenant au secteur biomédical, où Saama AI Labs a développé OpenBioLLM-8B et OpenBioLLM-70B, des modèles de langage de grande taille spécifiquement conçus pour les applications biomédicales. OpenBioLLM-70B, avec ses 70 milliards de paramètres, est capable de traiter, analyser et générer du texte biomédical avec une précision et une compréhension contextuelle élevées. Il a surpassé des modèles renommés comme GPT-4 et Med-PaLM-2 sur plusieurs critères de référence. OpenBioLLM-8B, plus compact avec 8 milliards de paramètres, offre des fonctionnalités similaires pour des applications aux ressources limitées. Cependant, malgré leurs performances impressionnantes, ces modèles peuvent occasionnellement produire des résultats inexacts ou biaisés. Il est donc important de les utiliser avec prudence, notamment pour la prise de décision clinique, et de toujours valider les informations avec des professionnels qualifiés.Du côté de Microsoft, l'entreprise a récemment reconnu que l'intelligence artificielle ne pourra jamais être totalement sécurisée. Des recherches menées sur plus de 100 produits d'IA ont révélé que les modèles amplifient non seulement les risques de sécurité existants mais en créent aussi de nouveaux. La pratique du "red-teaming", qui consiste à simuler des attaques pour identifier des vulnérabilités, a permis de mettre en lumière des failles potentielles dans les systèmes d'IA. Les attaques basées sur le gradient exploitent les mécanismes d'apprentissage des modèles pour les détourner, pouvant conduire à des résultats incorrects ou biaisés. De plus, la prolifération d'articles scientifiques générés par des IA de type GPT sur des plateformes comme Google Scholar pose un sérieux problème pour l'intégrité de la recherche académique. Certains experts estiment que l'IA commet encore trop d'erreurs pour être une solution entièrement fiable dans des domaines critiques comme la finance ou la santé.Enfin, les chercheurs de Google ont développé "Titans", un nouveau modèle Transformer conférant aux modèles de langage une mémoire à long terme. Titans peut traiter des séquences d'informations beaucoup plus longues que les modèles actuels, améliorant ainsi ses performances dans diverses tâches. Inspiré du fonctionnement de la mémoire humaine, il combine une mémoire à court et à long terme grâce à des blocs d'attention et des perceptrons multicouches de mémoire. Le système décide de ce qu'il doit mémoriser en se basant sur le degré de "surprise" des informations. Trois versions ont été créées : Mémoire comme Contexte, Mémoire comme Porte et Mémoire comme Couche. Titans a surpassé des modèles traditionnels comme le Transformer classique et des hybrides récents comme Mamba2, spécialement dans le traitement de textes très longs. Bien que certains modèles plus volumineux d'OpenAI et Anthropic soient plus performants, Titans se distingue par son efficacité. L'équipe prévoit de rendre le code public prochainement, ouvrant la voie à des avancées potentielles non seulement dans le traitement du texte, mais aussi dans d'autres domaines comme la modélisation de l'ADN ou la vidéo.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les assistants IA dans l'éducation, la formation aux grands modèles de langage, les agents autonomes et l'art du prompt engineering. C’est parti !Commençons par l'intégration des assistants IA comme ChatGPT et GitHub Copilot dans le monde de l'éducation. Lors de discussions organisées en novembre par l'équipe du curriculum de The Carpentries, environ 40 membres de la communauté se sont réunis pour aborder ce sujet. The Carpentries, une organisation dédiée à l'enseignement des compétences en codage et en science des données, a constaté que de plus en plus d'apprenants utilisent ces outils pendant et après les ateliers.Les participants ont partagé leurs expériences sur l'utilisation personnelle de ces assistants et sur la manière dont ils les intègrent déjà dans leurs enseignements. Une préoccupation majeure est la nécessité de "démystifier" ces outils. Il s'agit d'éclairer les apprenants sur leur fonctionnement, leurs limites et les différences avec des outils tels que les moteurs de recherche.Cependant, des défis subsistent quant à leur inclusion formelle dans les ateliers. Certains établissements interdisent ou restreignent l'accès à ces outils pour des raisons de confidentialité ou de réglementation. De plus, les versions gratuites peuvent offrir des performances limitées par rapport aux versions payantes, ce qui pourrait créer des inégalités d'accès. Enfin, intégrer ce nouveau contenu nécessite du temps, une ressource déjà précieuse dans des ateliers intensifs de deux jours.Poursuivons avec un cours dédié aux grands modèles de langage, ou LLM. Ce cours propose des ressources pour initier les apprenants aux techniques de construction des meilleurs LLM possibles. Il met l'accent sur la compréhension de l'architecture des Transformers, essentielle pour les LLM modernes. Ce processus implique la tokenisation du texte, le traitement de ces tokens à travers des couches avec des mécanismes d'attention, puis la génération de nouveau texte via diverses stratégies d'échantillonnage.Le pré-entraînement de ces modèles est un processus coûteux et gourmand en calcul. Bien qu'il soit possible pour des amateurs de pré-entraîner des modèles de moins de 1 milliard de paramètres, les modèles les plus performants nécessitent des ressources significatives. L'ajustement supervisé, une étape clé, transforme les modèles de base en assistants capables de répondre aux questions et de suivre des instructions. L'alignement des préférences est une autre étape importante, visant à ajuster les réponses générées pour qu'elles correspondent aux attentes humaines, réduisant ainsi les erreurs et améliorant l'utilité des modèles.Passons maintenant aux agents autonomes d'IA, qui représentent une avancée notable par rapport aux modèles tels que ChatGPT. Contrairement à ces derniers, les agents autonomes n'attendent pas d'instructions pour agir. Ils poursuivent des objectifs de manière proactive, interagissant avec leur environnement et ajustant leur comportement en fonction de leurs perceptions.Ces agents sont classés en plusieurs types : les agents à réflexes simples, qui réagissent à des stimuli sans tenir compte du passé ; les agents basés sur un modèle, qui utilisent des informations stockées pour prévoir des états futurs ; les agents basés sur des objectifs, qui planifient des actions pour atteindre des fins spécifiques ; et les agents basés sur l'utilité, qui évaluent et priorisent les résultats possibles selon une fonction d'utilité.Des projets innovants voient le jour dans ce domaine. Par exemple, Project Astra développe une plateforme intégrant des algorithmes d'apprentissage sophistiqués pour optimiser la prise de décision dans divers secteurs. Aomni propose une solution avancée pour automatiser le marketing et les ventes, maximisant les pipelines grâce à des interactions personnalisées. BabyAGI aide les utilisateurs à gérer des tâches complexes en automatisant les opérations répétitives, tandis que Cognosys vise à accélérer le travail grâce à l'automatisation et à l'analyse en temps réel.Abordons maintenant le "prompt engineering", une compétence de plus en plus cruciale pour les développeurs. Il s'agit de l'art de formuler des requêtes précises pour obtenir des résultats utiles des systèmes d'IA. Un prompt bien conçu peut faire toute la différence. Par exemple, au lieu de demander simplement "Écrivez une fonction Python", il est plus efficace de préciser "Écrivez une fonction Python pour calculer la suite de Fibonacci en utilisant la récursivité".Maîtriser cette compétence permet aux développeurs de gagner du temps, d'améliorer leur productivité et d'explorer de nouvelles solutions créatives. Les outils d'IA sont particulièrement utiles pour générer du code standard, assister lors du débogage ou expliquer des concepts complexes. En affinant leurs prompts, les développeurs peuvent tirer le meilleur parti de l'IA dans des tâches variées, du codage à la documentation.Enfin, ces avancées posent des questions sur l'alignement de ces technologies avec les valeurs fondamentales des communautés qui les utilisent. Dans le cas de The Carpentries, il est essentiel de considérer l'impact environnemental lié aux ressources nécessaires pour entraîner ces modèles, ainsi que les questions d'accessibilité et d'équité. Néanmoins, l'opportunité d'autonomiser les apprenants et de favoriser une culture d'apprentissage continu reste un moteur fort pour intégrer ces outils de manière réfléchie.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Les assistants d'IA génératifs dans l'enseignement des sciences des données, un nouveau cours sur les grands modèles de langage, l'émergence des agents autonomes d'IA, le rôle du prompt engineering pour les développeurs, et les avancées dans les agents d'IA autonomes. C’est parti !Commençons par les assistants d'IA génératifs, tels que ChatGPT et GitHub Copilot, qui transforment la manière dont les gens apprennent et pratiquent le codage. Lors de discussions organisées par la communauté The Carpentries, environ 40 membres ont échangé sur l'intégration de ces outils dans les ateliers. Certains utilisent déjà ces assistants pour générer du code, corriger des erreurs ou comprendre des concepts complexes, des compétences essentielles pour les débutants en programmation. Toutefois, des réserves subsistent quant au temps nécessaire pour enseigner correctement l'utilisation de ces outils dans des ateliers déjà bien remplis. La question demeure donc de savoir comment les intégrer sans alourdir le programme existant.Passons maintenant à un nouveau cours dédié aux grands modèles de langage, ou LLM. Ce cours propose deux parcours principaux pour initier les participants à la construction et à l'utilisation des LLM. Il couvre des aspects tels que l'architecture des modèles, la tokenisation, les mécanismes d'attention, et les stratégies d'échantillonnage pour la génération de texte. Le pré-entraînement, malgré son coût élevé en calcul, est abordé pour comprendre comment les modèles acquièrent leurs connaissances. Le cours traite également de l'ajustement supervisé, qui permet aux modèles de suivre des instructions et de structurer leurs réponses, ainsi que de l'alignement des préférences pour affiner le ton et réduire les erreurs. Des sujets émergents comme la quantification et les tendances multimodales sont également inclus, offrant une vue d'ensemble des dernières avancées dans le domaine.Abordons ensuite l'essor des agents autonomes d'IA. Contrairement aux modèles traditionnels qui répondent uniquement aux sollicitations, ces agents sont capables d'interagir de manière proactive avec leur environnement pour atteindre des objectifs spécifiques. Ils perçoivent leur environnement, prennent des décisions et agissent de manière autonome. On distingue plusieurs types d'agents, des plus simples basés sur des réflexes aux plus complexes utilisant des modèles internes pour planifier et évaluer les scénarios futurs. Ces agents trouvent des applications variées, comme l'assistance à la conduite autonome, où ils peuvent collaborer avec d'autres véhicules pour améliorer la sécurité et l'efficacité du trafic. Des projets prometteurs comme Project Astra, Aomni, BabyAGI et Cognosys illustrent les avancées dans ce domaine, en proposant des solutions pour optimiser les processus décisionnels, automatiser le marketing, gérer des tâches complexes et accélérer le travail dans divers secteurs.En parlant de développement logiciel, le prompt engineering devient une compétence clé pour les ingénieurs et les développeurs. Il s'agit de l'art de formuler des requêtes précises aux systèmes d'IA pour obtenir des résultats utiles. Par exemple, plutôt que de demander simplement "Expliquez les boucles en Python", il est plus efficace de dire "Expliquez la différence entre les boucles for et while en Python, avec des exemples". Cette précision permet non seulement d'obtenir des réponses plus pertinentes, mais aussi de gagner du temps et d'améliorer la productivité. Les outils d'IA peuvent ainsi aider à générer du code standard, assister au débogage, documenter et expliquer des fonctions. En affinant progressivement leurs prompts, les développeurs peuvent tirer le meilleur parti de l'IA pour des tâches allant de l'automatisation des tests à l'apprentissage de nouvelles technologies.Enfin, revenons sur les agents autonomes d'IA et leur distinction avec les modèles actuels. Ces agents ne se contentent pas de générer des réponses sur demande, ils poursuivent activement des objectifs en influençant leur environnement. Pour organiser un voyage, par exemple, un agent pourrait rechercher des options, effectuer des réservations et fournir un itinéraire complet en interagissant avec différentes plateformes en ligne. Ils génèrent continuellement leurs propres impulsions pour atteindre leurs buts, surveillent le monde, révisent leurs perceptions et ajustent leur comportement. Les applications potentielles sont vastes, allant du tutorat personnalisé à la gestion de tâches complexes dans les entreprises. Les avancées dans ce domaine nous rapprochent de l'intelligence artificielle générale, capable de compétences étendues similaires à celles de l'esprit humain.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'intégration des assistants LLM dans l'enseignement, un nouveau cours sur les modèles de langage, le rôle des agents d'IA et l'art du prompt engineering pour les développeurs. C’est parti !Commençons avec une discussion au sein de la communauté The Carpentries. En novembre 2024, l'équipe du curriculum a organisé deux sessions sur l'intégration des assistants LLM, comme ChatGPT et GitHub Copilot, dans leurs ateliers. Environ 40 membres ont partagé leurs expériences variées. Certains utilisent déjà ces outils quotidiennement, tandis que d'autres sont curieux de leur impact. Ceux qui les intègrent à leur enseignement mettent l'accent sur la nécessité de démystifier ces technologies, en expliquant leur fonctionnement, leurs limites et en corrigeant les idées reçues. Ils soulignent que si les apprenants ayant déjà des bases en programmation en tirent profit, ceux sans compétences préalables peuvent rencontrer des difficultés. L'un des défis reste de trouver du temps dans des programmes déjà chargés pour aborder ces outils de manière approfondie.Poursuivons avec un nouveau cours dédié aux grands modèles de langage, ou LLM. Ce cours propose deux parcours principaux et une version interactive où un assistant LLM répond aux questions et teste les connaissances sur des plateformes comme HuggingChat ou ChatGPT. Le cours explore l'architecture des LLM, notamment la tokenisation du texte, les mécanismes d'attention et la génération de nouveau texte via diverses stratégies d'échantillonnage. Il aborde également le pré-entraînement des modèles, un processus intensif en calcul. Bien que coûteux, il est possible pour des amateurs de pré-entraîner des modèles plus modestes, de moins de 1 milliard de paramètres. Les étapes d'ajustement supervisé et d'alignement des préférences sont détaillées, montrant comment les modèles apprennent à structurer leurs réponses et à les aligner sur les préférences humaines. Des sujets tels que l'évaluation fiable des LLM, la quantification pour réduire les coûts computationnels, et de nouvelles tendances comme les techniques de fusion de modèles et le multimodal sont également abordés.Passons maintenant aux agents d'IA. L'intelligence artificielle connaît une évolution avec l'émergence de l'intelligence générale artificielle et de l'intelligence holistique. Les agents d'IA sont des systèmes interactifs capables de percevoir leur environnement et d'agir pour atteindre des objectifs spécifiques. Ils opèrent dans des mondes physiques et virtuels, en utilisant des données acquises à travers diverses interactions. L'intégration de modèles de langage de grande taille et de modèles multimodaux rend ces systèmes plus intelligents et adaptables. Les agents se déclinent en plusieurs types : les agents réflexes simples, basés sur des règles prédéfinies ; les agents réflexes basés sur des modèles, utilisant des informations stockées ; les agents basés sur des objectifs, qui planifient leurs actions ; et les agents basés sur l'utilité, qui priorisent les résultats pour une décision optimale. Leur architecture peut être simple ou complexe, avec des systèmes multi-agents collaboratifs. Dans le contexte des entreprises, ces agents peuvent améliorer l'efficacité en évoluant d'agents spécialisés à des écosystèmes d'agents. Les workflows agentiques, comme le chaînage de prompts et la parallélisation, optimisent l'exécution de tâches complexes. Toutefois, l'utilisation des agents nécessite une attention particulière aux risques techniques tels que les défaillances ou les menaces de sécurité, et des principes de conception comme la transparence sont essentiels pour les atténuer.Abordons maintenant l'importance du prompt engineering pour les développeurs. Avec l'essor des outils d'IA comme ChatGPT et Copilot, il est essentiel de savoir formuler des requêtes précises pour obtenir des résultats utiles. Pour les ingénieurs logiciels, maîtriser l'art de créer des prompts efficaces permet de gagner du temps, d'améliorer la productivité et de stimuler la créativité. Par exemple, plutôt que de demander simplement "Explique les boucles en Python", il est plus pertinent de préciser "Explique la différence entre les boucles for et while en Python, avec des exemples". De même, pour la génération de code, un prompt détaillé obtiendra de meilleurs résultats. L'IA peut assister dans des tâches variées : génération de code, débogage, documentation, tests automatisés ou apprentissage de nouvelles technologies. Les réponses de l'IA étant itératives, affiner ses prompts permet d'obtenir des résultats optimaux. Ainsi, le prompt engineering devient une compétence incontournable pour collaborer efficacement avec l'IA dans le développement logiciel.Enfin, parlons des agents autonomes d'IA. Ces agents représentent une avancée par rapport aux modèles actuels qui répondent uniquement aux sollicitations. Les agents autonomes poursuivent des objectifs de manière indépendante et proactive, influençant leur environnement. Ils combinent des modèles de langage avancés avec la capacité de stocker des données, de surveiller des tâches et d'initier des actions en fonction de leur compréhension croissante. Par exemple, pour organiser un voyage, un agent peut rechercher des hôtels et des vols, effectuer des réservations et proposer un itinéraire complet, tout en interagissant avec l'utilisateur si nécessaire. Cette autonomie ouvre la voie à des applications dans le tutorat, la recherche, l'assistance et même la conduite autonome. Dans le cas des véhicules autonomes, les agents d'IA peuvent collaborer avec d'autres véhicules ou infrastructures urbaines pour améliorer la sécurité et optimiser le flux de trafic. Cependant, cette autonomie soulève également des défis en matière de fiabilité et de sécurité, nécessitant une conception prudente et une surveillance adéquate.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact énergétique de l'IA, les enjeux de sécurité et d'éthique, les avancées technologiques avec ReaderLM-v2, un générateur de thèmes pour Visual Studio Code, l'importance du prompt engineering, les dernières innovations de Google avec Gemini, les modèles d'IA les plus fiables, et un procès majeur qui pourrait affecter l'avenir de ChatGPT. C’est parti !L'essor rapide de l'intelligence artificielle pose des problèmes en matière d'énergie et d'eau. Aux États-Unis, pour répondre à la demande croissante de l'IA, de nouvelles centrales au gaz naturel sont en construction, compromettant les objectifs climatiques. Le cabinet Enverus prévoit 80 nouvelles centrales d'ici 2030, ajoutant une capacité électrique équivalente à celle de la Norvège. Au Royaume-Uni, des "zones de croissance de l'IA" sont créées pour faciliter l'accès à l'électricité et accélérer les infrastructures IA. Cependant, la première de ces zones est prévue près d'un réservoir destiné à approvisionner une région déjà en manque d'eau, soulevant des inquiétudes sur l'allocation des ressources entre les besoins humains et ceux des data centers. En France, malgré le soutien du parc nucléaire, des tensions subsistent. La Normandie se positionne pour accueillir des data centers, mais RTE, le gestionnaire du réseau électrique, avertit des pressions potentielles sur le réseau face à la multiplication de ces projets.En parlant de défis, la sécurité et l'éthique de l'IA sont au cœur des préoccupations. Actuellement, seulement 29 % des entreprises se sentent capables de détecter et prévenir les manipulations de l'IA. L'Union européenne agit avec l'EU AI Act, qui impose des protocoles de sécurité pour les systèmes d'IA à haut risque et insiste sur la supervision humaine et la formation des employés. Ce règlement vise à garantir un fonctionnement sûr et prévisible des systèmes d'IA, en reconnaissant que le jugement humain reste indispensable. En réponse, Cisco propose "AI Defense", une approche pour sécuriser le cycle de vie des applications d'IA sans sacrifier la rapidité du déploiement. L'objectif est d'assurer une utilisation sûre et responsable de l'IA.Du côté des avancées technologiques, Jina AI présente ReaderLM-v2, un modèle de langage capable de convertir du HTML brut en markdown ou JSON avec une précision accrue. Fort de 1,5 milliard de paramètres, il gère des contextes étendus jusqu'à 512 000 tokens et supporte 29 langues, dont le français. Contrairement à la version précédente, il traite la conversion comme une véritable traduction, permettant de générer des éléments complexes tels que des listes imbriquées, des tableaux et des équations LaTeX. ReaderLM-v2 surpasse des modèles plus grands tout en étant plus efficace, et est accessible via l'API Reader sur plusieurs plateformes.Pour les développeurs, la personnalisation de l'environnement de travail est essentielle. Rodrigo Luglio propose un générateur de thèmes en ligne pour Visual Studio Code. Cet outil permet de modifier les couleurs des éléments de l'interface sans avoir à coder, grâce à une interface intuitive avec prévisualisations en temps réel. Chaque aspect du thème est modifiable, des couleurs de fond aux éléments interactifs. Une fois satisfait du résultat, il est possible de télécharger un fichier JSON pour l'importer directement dans l'éditeur. Le code source du générateur est disponible sur GitHub.Le "prompt engineering" gagne en importance, axé sur la création de prompts optimisés pour obtenir des réponses précises des modèles d'IA. Avec l'utilisation croissante de l'IA dans des domaines variés, concevoir des prompts efficaces est essentiel pour améliorer la qualité des résultats et l'expérience utilisateur. Des ouvrages spécialisés offrent des conseils pour maîtriser cet art, aidant les professionnels à exploiter pleinement le potentiel des technologies d'IA, aboutissant à des échanges plus riches et significatifs.Google, de son côté, expérimente l'intégration de son intelligence artificielle Gemini dans la section "Les gens recherchent aussi" de son moteur de recherche. Cette IA vise à améliorer les suggestions associées en fournissant des informations plus précises et personnalisées. Des utilisateurs ont remarqué ces tests et partagé des captures d'écran, indiquant que Google est en phase d'expérimentation et que les fonctionnalités peuvent varier selon les régions. Cette intégration pourrait permettre à Google de fournir des informations encore plus pertinentes aux utilisateurs.En matière de fiabilité, les modèles d'IA de Zhipu AI et Gemini se distinguent par leurs taux de hallucination les plus bas parmi les grands modèles de langage. Le taux de hallucination mesure la fréquence à laquelle un modèle génère des informations inexactes. Selon des données récentes de Vectara, ces modèles ont produit le moins de résumés factuellement incohérents sur un ensemble de 1 000 documents, indiquant une fiabilité accrue dans la génération de textes. Cela représente une avancée significative pour la confiance accordée aux IA dans la production de contenu.Enfin, le New York Times et d'autres médias poursuivent OpenAI, alléguant que l'entreprise a utilisé des contenus protégés par le droit d'auteur pour entraîner ses modèles d'IA sans autorisation. Ce procès pourrait avoir des conséquences majeures sur l'avenir de ChatGPT. Microsoft, partenaire d'OpenAI, cherche à faire annuler l'action. Le débat central concerne l'application de la doctrine de "l'usage loyal" aux technologies d'IA, un domaine juridique encore incertain. Les médias plaignants affirment qu'OpenAI a reproduit des contenus similaires à leurs articles, ce qui pourrait constituer une violation de leurs droits d'auteur. Cette affaire est suivie de près, car elle pourrait établir des précédents importants pour l'utilisation de contenus protégés dans le développement de l'intelligence artificielle.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Gabor Samu et la personnalisation des modèles IA, Nvidia révolutionne le PC avec Digits sous Linux, IBM améliore la formation des LLM en entreprise, Torchtune facilite l'ajustement des modèles, Lovable AI rend le développement web accessible, et Google réinvente la gestion de l'information avec NotebookLM. C’est parti !Commençons par Gabor Samu, qui a reçu le 14 janvier 2025 un badge pour sa compréhension approfondie d'InstructLab et de ses applications dans la personnalisation des modèles de langage artificiel, qu'il s'agisse de SLMs ou de LLMs. InstructLab est une plateforme qui démocratise l'accès aux modèles d'IA à grande échelle, offrant des outils pour les adapter à des besoins spécifiques. Gabor Samu a démontré une solide maîtrise de l'intelligence artificielle générative, de la méthodologie LAB, de la taxonomie, de la génération de données synthétiques et du réglage fin des modèles. Sa contribution enrichit la plateforme et illustre l'importance du partage de connaissances dans l'open source.Passons maintenant à Nvidia, qui annonce une nouvelle génération d'ordinateurs personnels fonctionnant sous Linux. Le projet Digits présente un supercalculateur personnel d'intelligence artificielle équipé de la puce Grace Blackwell GB10, capable de traiter des modèles d'IA comportant jusqu'à 200 milliards de paramètres. Digits permet d'exécuter des applications d'IA directement sur la machine, sans recourir au cloud, améliorant ainsi la vitesse et la sécurité des données. Ce développement pourrait perturber la domination de Windows sur le marché des ordinateurs de bureau et encourager une adoption plus large de Linux.IBM a développé une méthode innovante pour générer des données synthétiques et un protocole d'entraînement par phases, améliorant ainsi la formation des grands modèles de langage en entreprise. La solution, nommée LAB pour Large-scale Alignment for chatBots, génère des données synthétiques adaptées aux tâches souhaitées, intégrant de nouvelles connaissances sans effacer les acquis précédents. En utilisant une taxonomie hiérarchique des connaissances et compétences, les développeurs peuvent identifier et combler les lacunes des modèles. IBM a généré un ensemble de données synthétiques de 1,2 million d'instructions et a formé deux LLM open source, Labradorite 13B et Merlinite 7B. Ces modèles ont montré des performances compétitives, surpassant même des chatbots alignés sur des données humaines.Torchtune est une bibliothèque native de PyTorch conçue pour simplifier le fine-tuning des grands modèles de langage. Elle offre des blocs modulaires et des recettes d'entraînement extensibles, permettant aux développeurs d'ajuster des LLM populaires avec diverses méthodes et architectures. Torchtune s'intègre avec Ascend, la série de produits de calcul IA de Huawei, via torch_npu, un plugin pour PyTorch. Cette intégration facilite l'utilisation des puissantes capacités de calcul des processeurs IA Ascend pour l'entraînement et l'inférence en apprentissage profond, sur une variété de GPU.Parlons maintenant de Lovable AI, une application qui permet de créer des sites web et des applications web sans coder. En utilisant des modèles de langage avancés de fournisseurs comme Anthropic et OpenAI, Lovable AI offre une interface où l'IA génère et exécute le code nécessaire à partir d'instructions en langage naturel. Le module GPT Engineer permet de créer et publier un site web fonctionnel sans écrire une seule ligne de code. Les utilisateurs peuvent modifier précisément chaque élément, intégrer leur projet avec Supabase pour le stockage des données, et profiter d'une bibliothèque de modèles préconfigurés. Des outils de collaboration permettent également de partager le code via GitHub ou de cloner le site pour des améliorations.Enfin, Google présente NotebookLM, un espace de travail alimenté par l'IA qui transforme la manière dont les cadres organisent, interagissent et synthétisent l'information. En combinant le modèle de langage Gemini Pro avec vos propres sources, NotebookLM crée un assistant de recherche personnalisé. Les utilisateurs peuvent télécharger jusqu'à 50 sources diverses, y compris des documents, présentations, PDF et sites web. L'IA analyse le contenu pour créer des résumés, identifier les sujets clés et générer des insights. La plateforme offre une interface unifiée pour gérer les sources, discuter avec l'IA et développer de nouvelles perspectives. NotebookLM Plus, une offre d'abonnement premium prévue pour début 2025, proposera des avantages comme des limites accrues, des options de personnalisation et des fonctionnalités de collaboration avancées.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd'hui : un concours pour les développeurs d'IA chez Google, un programme de subventions pour l'IA générative, une plateforme éducative innovante, le plan du Royaume-Uni pour devenir leader en IA, la création d'un assistant multimodal, et une polémique dans le monde de la mode. C'est parti !Google a lancé le concours AI Developers Community Spotlight Contest, une opportunité pour les développeurs travaillant sur des projets innovants utilisant les outils d'intelligence artificielle de l'entreprise. Ce concours vise à mettre en lumière les membres de la communauté qui créent des projets exceptionnels en termes de créativité, de complexité ou d'impact social. Parmi les outils disponibles, on retrouve l'API Gemini, Gemma, Google AI Edge et divers frameworks. Participer à ce concours offre une chance de faire reconnaître son travail à l'échelle mondiale et de rejoindre une communauté d'innovateurs qui façonnent l'avenir de l'IA. Les projets soumis peuvent prendre de multiples formes, et il est important de consulter les termes et conditions pour s'assurer de leur conformité.Dans un effort pour soutenir les organisations dépassées par l'intelligence artificielle générative, Google a également lancé un appel mondial à propositions dans le cadre de son programme Generative AI Accelerator. Ce programme offre des subventions allant de 500 000 à 2 millions de dollars, un soutien pro bono des employés de Google, une formation technique et des crédits pour Google Cloud. Les entreprises, qu'elles soient à but lucratif ou non, les entités civiques, les institutions académiques et les entreprises sociales sont encouragées à soumettre des propositions exploitant la technologie GenAI pour un impact social positif. Les organisations intéressées doivent soumettre leurs propositions avant le 10 février 2025. L'objectif est d'encourager l'utilisation de l'IA générative pour résoudre des problèmes sociaux, en surmontant les obstacles comme le manque de financement et de formation.Passons maintenant à l'éducation avec School AI, une plateforme alimentée par l'intelligence artificielle qui propose des outils pour améliorer l'enseignement et accroître la productivité des enseignants. Parmi ses fonctionnalités, "Spaces" est un chatbot conçu pour les étudiants, leur permettant de participer à des expériences d'apprentissage interactives comme des jeux de rôle avec des personnages historiques, l'exploration de nouveaux sujets ou des quiz adaptés à leur niveau de compréhension. Les enseignants peuvent créer des "Spaces" personnalisés en fonction de sujets spécifiques, de projets ou d'objectifs d'apprentissage, et surveiller les progrès des élèves pour adapter l'expérience à leurs besoins. "Sidekick" est un assistant AI destiné aux étudiants, qui les aide à résoudre des problèmes, comprendre des concepts complexes, résumer des leçons et tester leurs connaissances. Les enseignants peuvent configurer un Sidekick et inviter les élèves via un lien direct ou une plateforme de gestion de l'apprentissage comme Google Classroom. School AI propose également une collection d'outils AI facilitant diverses tâches pédagogiques et la création de ressources éducatives pour les enseignants.Du côté du Royaume-Uni, le gouvernement a annoncé un plan ambitieux pour positionner le pays comme un leader mondial en intelligence artificielle. Ce plan vise à stimuler la croissance économique, créer des emplois et transformer les services publics. L'un des aspects clés est l'augmentation de la capacité de calcul, avec la mise en place d'un superordinateur capable de jouer à un demi-million de parties d'échecs par seconde. Cette puissance de calcul est essentielle pour soutenir la recherche avancée et attirer des entreprises nécessitant de telles capacités pour développer des applications de pointe. Le plan introduit également des "zones de croissance de l'IA", destinées à simplifier les projets d'infrastructure en réduisant la bureaucratie. La première de ces zones sera située à Culham, dans l'Oxfordshire, et servira de laboratoire d'innovation. L'IA a le potentiel de transformer les services publics, notamment dans la santé, avec des outils pour diagnostiquer des maladies comme le cancer du sein de manière plus rapide et précise, pouvant sauver des milliers de vies et alléger la charge du système de santé. Le gouvernement s'engage également à promouvoir une IA éthique et responsable, avec une surveillance rigoureuse. Avec des engagements financiers de 14 milliards de livres sterling d'entreprises comme Vantage Data Centres et Kyndryl, et la création de plus de 13 000 emplois, le potentiel économique est considérable. Cependant, le succès dépendra de l'exécution efficace de ce plan pour qu'il ait un impact réel sur l'économie et la société.Parlons maintenant de la création d'un assistant d'intelligence artificielle multimodal capable de répondre à des questions complexes sur des images en combinant des modèles locaux et basés sur le cloud. Initialement construit uniquement avec des modèles locaux, l'ajout de connexions à des modèles basés sur le cloud, comme GPT4o-mini, a permis d'obtenir des résultats plus fiables. Les modèles de langage multimodal intègrent des capacités de raisonnement et de génération pour inclure des médias tels que les images, l'audio et la vidéo. Des modèles fermés basés sur le cloud, comme GPT-4o, Claude Sonnet et Google Gemini, peuvent raisonner sur des entrées d'images et sont plus rapides et moins coûteux que les offres multimodales d'il y a quelques mois. Meta a également publié les poids de plusieurs modèles multimodaux dans sa série Llama 3.2. De plus, des services de cloud computing comme AWS Bedrock hébergent désormais de nombreux de ces modèles, permettant aux développeurs de les essayer rapidement. Un agent intelligent avec accès à ces modèles peut choisir lesquels appeler pour obtenir une bonne réponse, évitant le besoin d'un modèle géant unique. Cependant, des défis pratiques subsistent, notamment la gestion de la mémoire vive lorsque plusieurs modèles sont chargés simultanément. En conclusion, l'orchestration de plusieurs modèles spécialisés est une approche puissante pour mettre les modèles de langage à grande échelle au service de tâches complexes.Enfin, une actualité dans le monde de la mode : la nomination de Christophe Castaner chez Shein a provoqué une vive indignation parmi les professionnels français du secteur. Shein, entreprise chinoise de fast fashion, est souvent critiquée pour ses pratiques de production rapide et peu coûteuse, soulevant des questions éthiques et environnementales. Les professionnels de la mode voient cette nomination comme un affront à l'industrie française, réputée pour son savoir-faire artisanal et son engagement envers des pratiques plus durables. Cette situation met en lumière les tensions entre les modèles économiques traditionnels et les nouvelles approches de consommation rapide, souvent associées à des impacts négatifs sur l'environnement et les conditions de travail. Les acteurs de la mode en France craignent que cette collaboration ne renforce la domination des grandes plateformes internationales, au détriment des valeurs et de l'identité de la mode française.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : les avancées majeures de l'intelligence artificielle attendues en 2025, des changements stratégiques chez Automattic concernant WordPress, une action en justice de Microsoft contre un service illicite, et l'approche multi-modèles pour optimiser les performances en IA. C’est parti !En 2025, l'intelligence artificielle s'apprête à franchir un cap décisif. Les équipes d'IA se concentreront sur la maîtrise des techniques de post-entraînement, car peu d'entre elles formeront des modèles à partir de zéro. Ces techniques incluent le réglage fin avec des ensembles de données spécifiques à un domaine, l'apprentissage par renforcement avec retour humain, ainsi que des méthodes d'optimisation comme la quantification et la distillation. Les modèles de fondation multimodaux élargiront les capacités de l'IA au-delà du texte, permettant de traiter des tâches visuelles et d'interagir avec des interfaces graphiques. Cela facilitera l'automatisation du travail intellectuel et élargira l'impact de l'IA dans divers secteurs. De plus, les outils de développement et de codage alimentés par l'IA transformeront la manière dont les logiciels sont créés, en augmentant la productivité, en réduisant les temps de révision et en améliorant la détection des problèmes. Les assistants de codage IA pourront guider l'ensemble des flux de travail, de la création de prototypes au déploiement.Parlons maintenant de WordPress et des décisions récentes d'Automattic.Automattic, l'entreprise derrière WordPress.com, a décidé de réduire ses contributions sponsorisées au projet WordPress. Depuis près de vingt ans, elle a consacré des ressources et des talents significatifs au développement de cette plateforme. Toutefois, un déséquilibre dans la répartition des contributions au sein de l'écosystème a été constaté. De plus, Automattic doit consacrer beaucoup de temps et d'argent pour se défendre contre des actions juridiques initiées par WP Engine et financées par Silver Lake, une société de capital-investissement. Face à ces défis, les employés qui contribuaient auparavant au noyau de WordPress se concentreront désormais sur des projets internes tels que WordPress.com, Pressable, WPVIP, Jetpack et WooCommerce. Automattic espère que cette réorientation encouragera une participation plus équilibrée de toutes les organisations qui bénéficient de WordPress, renforçant ainsi la communauté dans son ensemble.Passons à présent à l'actualité judiciaire impliquant Microsoft.Microsoft a intenté une action en justice contre trois individus accusés d'avoir mis en place un service de "hacking-as-a-service". Ce service permettait de contourner les mesures de sécurité de la plateforme d'intelligence artificielle de Microsoft pour créer du contenu illicite. Les accusés auraient compromis les comptes de clients légitimes et vendu l'accès à ces comptes via un site désormais fermé. Ils fournissaient des instructions détaillées pour utiliser des outils personnalisés capables de générer du contenu interdit. Le service utilisait un serveur proxy pour relayer le trafic entre ses clients et les serveurs d'IA de Microsoft, exploitant des interfaces de programmation d'applications non documentées et imitant des requêtes légitimes. Microsoft n'a pas précisé comment les comptes clients ont été compromis, mais a mentionné que des outils existent pour rechercher des clés API dans les dépôts de code, une pratique que les développeurs sont souvent conseillés d'éviter. La plainte allègue que ces actions violent plusieurs lois américaines, dont le Computer Fraud and Abuse Act et le Digital Millennium Copyright Act.Enfin, intéressons-nous à l'approche multi-modèles en intelligence artificielle.Combiner plusieurs modèles d'IA peut être une stratégie efficace pour améliorer les performances et atteindre des objectifs de manière plus efficiente. Cette méthode exploite la puissance de différents systèmes pour augmenter la précision et la fiabilité dans des scénarios complexes. Par exemple, le routage multimodal implique de diriger simultanément des tâches à travers différents modèles spécialisés dans le traitement de types de données spécifiques, tels que le texte, les images, le son ou la vidéo. Ainsi, une application peut traiter plusieurs modalités en dirigeant chaque type de données vers le modèle le mieux adapté, améliorant la performance globale du système. De même, le routage expert consiste à diriger les requêtes vers des modèles spécialisés en fonction du domaine spécifique de la tâche. Dans le secteur de la santé, par exemple, des modèles d'IA peuvent être déployés de manière hybride pour offrir à la fois des capacités en ligne et hors ligne, combinant des modèles locaux pour les diagnostics initiaux et des modèles basés sur le cloud pour accéder aux dernières recherches médicales. En associant des modèles spécifiques à une tâche et des modèles plus larges, les entreprises peuvent également optimiser les coûts, en utilisant des modèles plus petits dans des scénarios de calcul en périphérie tout en exploitant la puissance de traitement de modèles plus grands comme GPT.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : VLC intègre des sous-titres générés par IA, Google fait face aux critiques sur sa fonctionnalité AI Overview, Microsoft dévoile son modèle de langage open source Phi-4, et une nouvelle approche de la documentation technique centrée sur les utilisateurs. C’est parti !Commençons par VLC, le célèbre lecteur multimédia open source, qui a récemment célébré au CES 2025 à Las Vegas son 6ᵉ milliard de téléchargements. Pour marquer cet exploit, l'association VideoLAN, qui développe VLC, a introduit une nouvelle fonctionnalité très attendue : le sous-titrage automatique des vidéos grâce à une intelligence artificielle générative. Cette innovation utilise le modèle d'IA Whisper pour transcrire et traduire des vidéos directement sur l'ordinateur de l'utilisateur, sans nécessiter de fichiers de sous-titres externes ni de connexion Internet. Tout se fait localement, garantissant ainsi la confidentialité des données et une synchronisation parfaite des sous-titres avec la vidéo. Cette approche respecte la philosophie open source de VLC, tout en résolvant les problèmes courants de désynchronisation et de disponibilité des sous-titres dans différentes langues.Cependant, cette avancée technologique pose des défis. Les modèles de transcription étant volumineux, pesant plusieurs gigaoctets, VideoLAN pourrait faire face à une charge importante lors des téléchargements massifs au lancement. En tant que projet open source aux ressources limitées, l'association pourrait avoir besoin de soutien pour déployer cette fonctionnalité à grande échelle. De plus, VideoLAN envisage d'ajouter une autre innovation : l'intégration d'un interprète en langue des signes américaine dans le coin de la vidéo, rendant le contenu encore plus accessible.Passons maintenant à Google, qui a lancé en mai sa fonctionnalité de recherche AI Overview. Ce lancement a été largement critiqué en raison de résultats erronés et parfois incohérents. L'outil a, par exemple, fourni des conseils inappropriés, diffamé des personnalités publiques et plagié le travail de journalistes. Ces problèmes ont conduit Google à ajouter une option pour désactiver entièrement cette fonctionnalité. Même après plusieurs mois, l'outil continue de produire des informations incorrectes. Un utilisateur de Reddit a découvert que la recherche du terme "magic wand pregnancy" renvoyait une réponse inappropriée, démontrant une mauvaise compréhension du contexte par l'IA. Alimentée par le modèle Gemini, cette fonctionnalité est censée utiliser des capacités de raisonnement en plusieurs étapes pour répondre à des questions complexes. Cependant, cet exemple illustre les limites actuelles de l'IA lorsqu'elle est confrontée à des termes ambigus ou à des contextes multiples.Il est également intéressant de noter que Google a signé un contrat de 60 millions de dollars par an avec Reddit pour utiliser le contenu des utilisateurs afin d'entraîner ses modèles d'IA. Reddit étant l'une des rares plateformes à autoriser le contenu pour adultes, cela souligne les défis liés à l'utilisation de données provenant de sources variées pour l'entraînement des IA. Cela met en lumière l'importance de formuler les recherches de manière précise pour obtenir des réponses pertinentes, car les modèles d'IA sont influencés par les données sur lesquelles ils ont été formés.En parlant de modèles de langage, Microsoft a récemment publié officiellement le modèle Phi-4 sous licence MIT. Ce modèle de langage de grande taille (LLM) se distingue par l'utilisation innovante de données d'entraînement synthétiques. Les versions précédentes non officielles avaient déjà montré que Phi-4 se comparait favorablement à GPT-4o, ce qui signifie qu'il s'agit d'un modèle de la classe GPT-4 capable de fonctionner sur un ordinateur portable performant. La communauté a également réussi à quantifier le modèle, réduisant sa taille tout en maintenant ses performances. Par exemple, la version mlx-community/phi-4-4bit pèse 7,7 Go et peut être exécutée avec l'outil mlx-llm. Une autre option est de télécharger un fichier modèle de 9,1 Go via Ollama, le rendant accessible grâce au plugin llm-ollama. Ces développements démontrent l'accessibilité croissante des modèles de langage avancés, permettant à un plus grand nombre de personnes de les utiliser sans infrastructures informatiques coûteuses.Terminons avec une réflexion sur la documentation technique. Souvent perçue comme un ensemble de règles rigides, elle est traditionnellement centrée sur les actions des rédacteurs plutôt que sur les besoins des utilisateurs. Pour changer cette approche, un modèle de documentation en sept actions est proposé, mettant l'accent sur ce que les utilisateurs cherchent à accomplir. Ces actions sont : Évaluer, Comprendre, Explorer, Pratiquer, Se souvenir, Développer et Dépanner. Par exemple, "Évaluer" permet aux utilisateurs de discerner les principales qualités d'un produit et de le comparer à d'autres, tandis que "Pratiquer" offre des guides pratiques pour maîtriser son utilisation quotidienne. En adoptant cette stratégie, la documentation devient un véritable produit répondant aux besoins réels des utilisateurs, offrant une expérience plus engageante et efficace.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : VLC révolutionne le sous-titrage vidéo, les défis de l'IA de Google en matière de recherche, Microsoft publie le modèle Phi-4, une nouvelle approche pour la documentation technique, et VLC célèbre ses 6 milliards d'installations en intégrant l'IA. C’est parti !VLC, le célèbre lecteur multimédia open source, a récemment annoncé une fonctionnalité très attendue : le sous-titrage automatique des vidéos. Grâce à l'intelligence artificielle et au modèle Whisper, VLC pourra transcrire et traduire les vidéos en temps réel, sans besoin de fichiers de sous-titres externes. Cette innovation est particulièrement utile pour les langues moins courantes, où les sous-titres sont souvent difficiles à trouver. Le modèle Whisper s'installe sur l'ordinateur de l'utilisateur et synchronise automatiquement le texte avec l'audio, éliminant les problèmes de désynchronisation. Toutefois, la taille importante du modèle, pouvant atteindre plusieurs gigaoctets, pose des défis techniques et pourrait nécessiter une assistance supplémentaire lors du déploiement. De plus, VLC envisage d'intégrer un interprète en langue des signes américaine dans le coin des vidéos, améliorant ainsi l'accessibilité pour les personnes sourdes ou malentendantes.Passons maintenant à Google, qui fait face à des défis avec sa fonctionnalité de synthèse d'IA dans la recherche, lancée en mai. Cette fonctionnalité a été critiquée pour ses erreurs et ses réponses inappropriées. Elle a parfois donné des conseils absurdes ou fourni des informations erronées, obligeant Google à permettre aux utilisateurs de la désactiver. Malgré les efforts pour améliorer le service, des résultats inexacts persistent, ce qui peut ajouter de la confusion plutôt que de simplifier l'expérience en ligne. Cet exemple souligne les difficultés d'intégration de l'IA dans des produits destinés au grand public et l'importance de garantir la fiabilité des informations fournies.Du côté de Microsoft, l'entreprise a officiellement publié le modèle Phi-4 sous licence MIT. Ce modèle de langage, comparable à GPT-4, est suffisamment optimisé pour fonctionner sur un ordinateur portable standard, sans nécessiter une infrastructure informatique puissante. Phi-4 utilise des données d'entraînement synthétiques pour améliorer ses performances. Des versions quantifiées du modèle sont déjà disponibles, réduisant sa taille tout en maintenant son efficacité. Par exemple, une version compressée de 7,7 Go peut être exécutée avec l'outil mlx-llm. Le modèle est également accessible via Ollama, une plateforme qui facilite l'intégration et l'utilisation de modèles de langage pour les développeurs et les chercheurs, rendant ces technologies plus accessibles.Abordons maintenant une nouvelle approche en matière de documentation technique. Souvent perçue comme un ensemble de règles rigides, la documentation traditionnelle se concentre sur les actions des rédacteurs plutôt que sur les besoins des utilisateurs. Le modèle de documentation en sept actions propose de recentrer l'attention sur les utilisateurs en identifiant leurs besoins clés : Évaluer, Comprendre, Explorer, Pratiquer, Se souvenir, Développer et Dépanner. Cette approche considère la documentation comme un produit utilisé pour atteindre des objectifs concrets, alignant ainsi la recherche en expérience utilisateur avec la création de contenu. En répondant à ces besoins, la documentation devient plus efficace et utile, aidant les utilisateurs à interagir de manière optimale avec les produits.Enfin, VLC a franchi une étape majeure en surpassant les 6 milliards d'installations. Continuant sur sa lancée d'innovation, VLC travaille à intégrer des fonctionnalités basées sur l'intelligence artificielle pour générer des sous-titres hors ligne à l'aide de modèles locaux et open source. Cette avancée sera présentée lors du CES 2025, démontrant comment ces modèles peuvent fonctionner directement sur l'appareil de l'utilisateur sans nécessiter de connexion à un serveur distant. En traitant les données localement, VLC aborde également les préoccupations relatives à la vie privée, évitant l'envoi d'informations personnelles vers le cloud. Cette initiative illustre l'engagement de VLC à améliorer l'accessibilité et l'expérience utilisateur tout en respectant la confidentialité.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.