エピソード

  • Taha Jaffer: The AI Successes You’re Not Hearing About Guest: Taha Jaffer, Head of Wholesale Banking and Global Treasury AI at  Scotiabank   At a moment when most organizations are still in fairly early stages of their AI journey, Taha Jaffer, Scotiabank’s Head of Wholesale Banking and Global Treasury AI, gives us a preview of what to expect: it’s a transformative journey, and one that’s worth taking, even though elements like data, technology and governance all take time to develop. Taha talks about  Going from simple use cases to more sophisticated and value creating solutions;  An example use case using AI to optimize a system of international bank transfers; How his team’s governance focus has grown to ensuring data assets are in good shape early on, and how his team approaches model testing Why you don’t hear about many AI successes in banking; Plus: His 3 pieces advice for other AI leaders Further Reading AI Maturity Framework AI Maturity Survey How AI risk management is different The value of explainable AI in financial services   _____________________________________________ Taha Jaffer : Les succès de l’IA dont vous n’entendez pas parler Invité : Taha Jaffer, responsable des services bancaires aux entreprises et de l’IA de la trésorerie mondiale à la Banque Scotia   À un moment où la plupart des organisations n’en sont encore qu’au début de leur parcours d’IA, Taha Jaffer, responsable des services bancaires aux entreprises et de l’IA de la trésorerie mondiale à la Banque Scotia, nous donne un aperçu de ce à quoi il faut s’attendre : c’est un parcours de transformation qui vaut la peine d’être entrepris, même si des éléments comme les données, la technologie et la gouvernance prennent tous du temps à développer. Taha parle des sujets suivants :  Passer des simples cas d’utilisation à des solutions plus sophistiquées et créatrices de valeur;  Un exemple de cas d’utilisation de l’IA pour optimiser un système de virements bancaires internationaux; Comment la gouvernance de son équipe s’est focalisée sur la garantie que les actifs de données sont en bon état dès le départ, et comment son équipe aborde les tests de modèles; Pourquoi vous n’entendez pas parler des nombreux succès de l’IA dans le secteur bancaire; Plus : Ses 3 conseils pour les autres dirigeants dans le secteur de l’IA   Lectures supplémentaires : Le cadre de maturité de l'IA Sondage sur la maturité en matière d'IA En quoi la gestion du risque de l'IA est différente La valeur de l'IA explicable dans les services financiers

  • If you’re tight on time, there is a short complimentary episode with our guest where he summarizes the key takeaways in “The Seven Sins of Enterprise AI Strategies”. While business leaders may know AI needs a mindset shift to get the most out of the technology, communicating what exactly needs to change is challenging. Jeremy Barnes, Element AI’s CTO, has an incredible ability to find and make sense of the connecting thread between AI technology and business.  In this long-form interview, Jeremy talks about his initial role at Element AI as Chief Architect and helping to develop the company’s thesis, the 4 personas of AI adoption he’s observed in the market, and the importance of companies fostering a collaborative culture that will be able to experiment and change quickly around this new tech. If you’re curious how company leaders should think strategically about AI, this interview is for you.   -----------   Jeremy Barnes : Les 4 personas de l’adoption de l’IA Si vous êtes pressé par le temps, il y a un court épisode gratuit avec notre invité où il résume les principaux points à retenir dans « Les 7 péchés des stratégies d’IA d’entreprise ». Si les chefs d’entreprise savent que l’IA nécessite un changement de mentalité pour tirer le meilleur parti de la technologie, communiquer sur ce qui doit exactement changer est un défi. Jeremy Barnes, directeur de la technologie chez technique d’Element AI, a une incroyable capacité à trouver le fil conducteur (et à y donner un sens) entre la technologie de l’IA et le monde des affaires.  Dans cet entretien détaillé, Jeremy parle de son rôle initial chez Element AI en tant qu’architecte en chef et de son aide à l’élaboration de la thèse de l’entreprise, des 4 personas de l’adoption de l’IA qu’il a observés sur le marché, et de l’importance pour les entreprises de favoriser une culture de collaboration qui sera capable d’expérimenter et de changer rapidement autour de cette nouvelle technologie. Si vous êtes curieux de savoir comment les dirigeants d’entreprise doivent penser stratégiquement à l’IA, cet entretien est pour vous.

  • エピソードを見逃しましたか?

    フィードを更新するにはここをクリックしてください。

  • This is a special, short episode with a summary of lessons complementing our full-length interview with Element AI’s CTO Jeremy Barnes on “The 4 Personas of AI Adoption”.  A lot of Jeremy’s work has him involved in the top level strategy of AI implementation for the Global 2000, and he’s recently synthesized “7 sins of Entreprise AI Strategies” based off of the common mistakes he has observed. From managing risk to accounting reforms to cultural enablement, these “sins” also come with suggestions for how boards and C-suites can best enable their AI strategies.   -------------   Les 7 péchés des stratégies d’IA d’entreprise   Voici un court épisode spécial avec un résumé des leçons complétant notre entretien complet avec Jeremy Barnes, directeur de la technologietechnique chez Element AI, sur « Les 4 personas de l’adoption de l’IA » Jeremy a beaucoup travaillé sur la stratégie de haut niveau de mise en œuvre de l’IA pour le Global 2000, et il a récemment synthétisé les « 7 péchés des stratégies d’IA d’entreprise » à partir des erreurs courantes qu’il a observées. De la gestion des risques aux réformes comptables en passant par l’habilitation culturelle, ces « péchés » s’accompagnent également de suggestions sur la manière dont les conseils d’administration et les cadres supérieurs peuvent mettre en œuvre au mieux leurs stratégies d’IA.

  • This special episode was recorded on Monday, March 30th for the beta release of  the COVID-19 research platform that leverages technology from the Element AI Knowledge Scout product.  Guest: JF Gagne, CEO and Co-Founder of Element AI Research data and reports are being published at an unprecedented pace as organizations scale up their efforts to respond to COVID-19. In order to help clinical and scientific researchers, public health authorities and frontline workers navigate that wealth of information at a rapid pace, we’ve adapted our Element AI Knowledge Scout platform to run semantic search on over 45,000 scholarly articles in the COVID-19 Open Research Dataset (CORD-19) released by the Allen Institute for AI.  We are looking to rapidly add features and data sets that will be relevant for: Scientific researchers building models of the pandemic and its impacts. Public Health and Safety authorities sourcing the best practices from around the world.  Clinical researchers working on new therapies or vaccine trials, as well as identifying existing therapies that could provide immediate help.  Other data scientists searching for novel ways to connect research across the body of knowledge available on coronavirus If this is you, please go to www.elementai.com/covid-research to access the tool and send us any feedback on how this can better help your work.   Element AI Knowledge Scout for COVID-19 Research  CORD-19 Dataset release by Allen Institute for AI What We’re Doing   -------   Recherche alimentée par l’IA de l’ensemble des connaissances sur la COVID-19 Cet épisode spécial a été enregistré le lundi 30 mars pour la sortie bêta de la plateforme de recherche sur la COVID-19, qui exploite la technologie du produit Element AI Knowledge Scout.   Invitée: JF Gagné, PDG et co-fondateur de Element AI Les données et les rapports de recherche sont publiés à un rythme sans précédent alors que les organisations intensifient leurs efforts pour répondre à la COVID-19. Afin d’aider les chercheurs cliniques et scientifiques, les autorités de santé publique et les travailleurs de première ligne à naviguer rapidement dans cette mine d’informations, nous avons adapté notre plateforme Element AI Knowledge Scout pour effectuer des recherches sémantiques sur plus de 45 000 articles scientifiques dans l’ensemble de données de recherche ouvert COVID-19 Open Research Dataset (CORD-19) publié par le Allen Institute for AI.   Nous cherchons à ajouter rapidement des fonctionnalités et des ensembles de données qui seront pertinents pour les groupes suivants : Les chercheurs scientifiques qui élaborent des modèles de la pandémie et de ses effets. Les autorités de santé et de sécurité publiques qui recherchent de meilleures pratiques dans le monde entier.  Les chercheurs cliniques qui travaillent sur de nouvelles thérapies ou des essais de vaccins, ainsi que l’identification des thérapies existantes qui pourraient apporter une aide immédiate.  Les autres scientifiques des données à la recherche de nouveaux moyens de relier les recherches dans l’ensemble des connaissances disponibles sur le coronavirus. Si vous faites partie de l’un de ces groupes, rendez-vous au www.elementai.com/fr/recherche-covid pour accéder à l’outil et nous faire part de vos commentaires sur la façon dont cela peut mieux vous aider dans votre travail.   Element AI Knowledge Scout au service de la recherche sur la COVID-19  Publication de l’ensemble des données CORD-19 par le Allen Institute for AI  Ce que nous faisons

  • S2E7: Global Competition Policy and Japan’s Society 5.0   Guests: Philippe Aghion, Economist and Professor at College de France, The London School of Economics, and Harvard University Yuko Harayama,  Former Executive Member of Japan’s Council for Science, Technology and Innovation Policy This week on The AI Element we zoom out to look at how AI is impacting, and is being impacted by, global economic policies. Policy is hugely important for AI’s development and implementation. Though each application of AI differs from business to business and country to country, there are often similar patterns and concerns that arise, like the fear of automation replacing jobs and of increasing inequalities. Policy makers across the globe are trying to tackle these concerns to ensure they are creating a positive outcome for all.  This week we have two guests who are going to teach us about how AI is impacting growth and a radical new approach in Japan to guiding science and innovation. Our first guest Philippe Aghion is a world-renowned economist who tells us about the impact of AI on economic growth and why that growth may not be shared equally. His interview is a lesson about why innovation today without competition will lead to less innovation in the future.  Our second guest Yuko Harayama co-wrote Japan’s 5 year plan for technology and innovation and was a leader in developing Japan’s national AI strategy. She tells us about Japan’s radical new approach to technology policy and how, rather than giving a strict roadmap for technology development, they created a vision of a society technology developers should abide by. She calls it Society 5.0.  00:37 - Intro  02:51 - AI’s Impact on Economic Growth  05:36 - Aghion, Jones & Jones - Artificial Intelligence and Economic Growth 06:27 - Aghion, Bergeaud, Boppart, Klenow, Li - Theory of Falling Growth and Rising Rents 06:56  - AI, Superstar Firms and Competition  13:03 - G7 ministers ‘agree in principle’ on deal taxing digital taxing digital giants 13:56 - W.T.O Allows China to Impose Trade Sanctions on U.S. Goods  14:36 - Acemoglu & Restrepo - Robots and Jobs: Evidence from US Labor Markets  14:36 - The Fall of the Labor Share and the Rise of Superstar Firms 16:39 - AI and Innovation  17:42 - Baumol’s cost disease   18:55 - Gaby Aghion, fashion designer: Co-founder of Chloe House, which revitalized French fashion in the 1950s  19:54 - Society 5.0 19:54 - Artificial Intelligence Technology Strategy  19:54 -Government of Japan - The 5th Science and Technology Basic Plan 20:45 - Society 5.0 Powerpoint 29:29 - Society 5.0 and Global Policy  29:45 - OECD - Artificial Intelligence  31:53 - United Nations Activities on Artificial Intelligence (AI)  33:31 - Optimism and Persistence  33:46 - Encyclopedia Britannica - Pangloss  Additional Links  TED Talk - Yuko Harayama - Why Society 5.0    --------   S2E7 : Politique de concurrence mondiale et Société japonaise 5.0    Philippe Aghion, Économiste et Professeur au Collège de France, à l'Université de Harvard, et à la London School of Economics Yuko Harayama, Ancien membre exécutif du Conseil japonais pour la politique scientifique, technologique et d'innovation Cette semaine, au balado The AI Element, nous abordons la façon dont l’IA a une incidence sur les politiques économiques mondiales et comment elle est influencée en retour par celles-ci. Les politiques sont extrêmement importantes pour le développement et la mise en œuvre de l’IA. Bien que chaque application de l’IA diffère d’une entreprise à l’autre et d’un pays à l’autre, il existe souvent des modèles et des préoccupations similaires, comme la crainte que l’automatisation ne remplace les emplois et n’accroisse les inégalités. Les décideurs du monde entier s’efforcent de répondre à ces préoccupations pour s’assurer qu’elles débouchent sur un résultat positif pour tous.  Cette semaine, nous avons deux invités qui vont nous expliquer l’incidence de l’IA sur la croissance et une nouvelle ap

  • S2E6 - Histories of AI: Ancient Greek Myths and the Last AI Boom In 2020, and for our first episode in the new decade, we thought it would be good to continue to dig deeper into how AI has developed over time. Learning about the roots of AI, we are reminded that the north star of this field has always been what we tend to call artificial general intelligence today, intelligence that reflects the full breadth of human intelligence. This puts in context why the recent breakthroughs have been so significant, and at the same time there is still so far to go. On this week’s episode of The AI Element we are joined by two guests who share two very different histories of AI,  one of its ancient roots and the other of contemporary challenges in operationalizing it for mass use.  Adrienne Mayor is a historian and research scholar at Stanford University whose recent work focuses on the earliest imaginings of AI in ancient myths. She shares some insights from ancient Greek myths like Homer’s Iliad and writings by Aristotle that show that AI and AGI have long been part of the human imagination.  Ronjon Nag reflects on the history of AI through his own experience. He’s an inventor, a distinguished Careers Research Fellow at Stanford and has pioneered a number of neural net applications since the 80s. He’s developed some of the first speech and handwriting recognition software and talks about the development of AI applications over the past 4 decades, and how though we’ve come a long way, there is still a long way to go.  00:55: Jonnie Penn, AI Historian: What not to optimize  2:00: Adrienne Mayor - Stanford University  2:17: Gods and Robots: Myths, Machines and Ancient Dreams of Technology 13:40: Talos Missile   14:13: TALOS (uniform) - Wikipedia  17:53: Harvard Divinity School  19:57: Ronjon Nag - Stanford University  20:30: Computers That Learn by Doing - Fortune Magazine  21:59: How William Shatner Changed the World - Martin Cooper, mobile phone inventor - Youtube  28:37: Google DeepMind  32:24: SpiNNaker Project  34:15: Grammatik - Wikipedia  34:38: Grammarly  36:13: The Boundaries of Humanity Project    ---------   S2E6 – Historique de l’IA : Mythes de la Grèce antique et le dernier boum de l’IA En 2020, et pour notre premier épisode de la nouvelle décennie, nous avons pensé qu’il serait bon de continuer à approfondir l’évolution de l’IA dans le temps. En apprenant au sujet des racines de l’IA, on nous rappelle que l’étoile du Nord de ce domaine a toujours été ce que nous avons tendance à appeler aujourd’hui l’intelligence artificielle générale (IAG) qui reflète toute l’étendue de l’intelligence humaine. Cela met en contexte les raisons pour lesquelles les récentes percées ont été si importantes et, en même temps, il reste encore beaucoup à faire. Dans l’épisode de cette semaine de The AI Element nous accueillons deux invités qui partagent deux histoires très différentes de l’IA, l’une de ses racines anciennes et l’autre des défis contemporains de son opérationnalisation pour un usage de masse.  Adrienne Mayor est historienne et chercheuse à l’Université de Stanford. Ses travaux récents portent sur les premières abstractions de l’IA dans les mythes anciens. Elle nous fait part de quelques idées tirées des mythes grecs anciens comme l’Iliade d’Homère et des écrits d’Aristote qui montrent que l’IA et l’IAG font depuis longtemps partie de l’imagination humaine.  Ronjon Nag réfléchit sur l’histoire de l’IA à travers sa propre expérience. Il est un inventeur, un éminent chercheur de carrière à Stanford et a été le pionnier d’un certain nombre d’applications de réseaux neuronaux depuis les années 80. Il a développé certains des premiers logiciels de reconnaissance de la parole et de l’écriture et parle du développement des applications d’IA au cours des 4 dernières décennies, et comment, bien que nous ayons fait beaucoup de progrès, il reste encore beaucoup de chemin à parcourir.  00:55 : Jonnie Penn, historienne de l’IA : Quoi ne pas

  • In this bonus interview, historian, researcher and former TV star Jonnie Penn is joined by our Head of Public Policy and Government Relations Marc-Etienne Ouimette to talk about the history of AI. In the interview, Jonnie looks to the past to help answer a number of important questions about the future of AI. For instance, what parts of our social system do we not want to optimize? Who does this technological progress actually benefit? And how can more young people get involved in decision making processes surrounding tech?    1:19 - Jonnie Penn 1:25 - The Buried Life  1:54 - Berkman Klein Center 2:05 - MIT Media Lab 4:22 - Machines Who Think - Pamela McCorduck  23:21 - ‘Don’t Join a Union, Pop a Pill’ - Katrina Forrester  26:03 - The troubling case of the young japanese reporter who worked herself to death - Washington Post 27:14 - Germinal (novel) - Wikipedia   32:08 - The Cybernetic Brain - Andrew Pickering  42:52 - Marvin Minsky - Wikipedia  44:40 - Jonnie Penn - Twitter    Other links:  Jonnie Penn Publications - Berkman Klein Center  What History Can Tell Us About the Future of Artificial Intelligence - TEDx Talks    -----------   Dans cet entretien en prime, l’historien, chercheur et ancienne vedette de télévision Jonnie Penn est accompagné de notre directeur des relations publiques et gouvernementales Marc-Étienne Ouimette pour parler de l’histoire de l’IA. Dans cette entrevue, Jonnie se tourne vers le passé pour répondre à un certain nombre de questions importantes sur l’avenir de l’IA. Par exemple, quelles parties de notre système social ne voulons-nous pas optimiser? À qui profite réellement ce progrès technologique? Et comment un plus grand nombre de jeunes peuvent-ils s’impliquer dans les processus de prise de décision entourant la technologie?    1:19 – Jonnie Penn 1:25 – The Buried Life  1:54 – Berkman Klein Center 2:05 – MIT Media Lab 4:22 – Machines Who Think – Pamela McCorduck  23:21 – « Don’t Join a Union, Pop a Pill » – Katrina Forrester  26:03 – Le cas troublant de la jeune journaliste japonaise qui a travaillé jusqu’à en mourir – Washington Post 27:14 – Germinal (roman) – Wikipédia   32:08 – The Cybernetic Brain – Andrew Pickering  42:52 – Marvin Minsky – Wikipédia  44:40 – Jonnie Penn – Twitter    Autres liens :  Publications de Jonnie Penn Publications – Berkman Klein Center   What History Can Tell Us About the Future of Artificial Intelligence - TEDx Talks

  • Bonus Episode - An Interview with Yohsua Bengio  Can AI be used to help solve Climate Change? If so, how?  In this bonus interview, world renowned machine learning researcher Yoshua Bengio joins host Alex Shee to talk about AI’s role in solving the climate crisis. Segments of this interview was featured on our episode about sustainability, in which he shared some examples of how AI is being used to mitigate and adapt to climate change. In the full-length interview he shares his personal motivations for getting involved in climate action and goes in depth about his cross-disciplinary work to solve what he thinks is one of the world’s largest existential risks. 2:03 - Mila - Yoshua Bengio’s Lab 2:04 - IVADO - The Institute for Data Valorization 3:11 - Montreal Declaration for Responsible AI  7:55 - Tackling Climate Change with Machine Learning - Rolnick et al., arXiv  11:19 - Mila - AI for Humanity  11:30 - Mila - Climate Change  13:31 - Visualizing the Consequences of Climate Change Using Cycle-Consistent Adversarial Networks - Schmidt et al., arXiv 16:35 - GANS (Generative Adversarial Network) - Wikipedia  16:58 - Help the planet by uploading your pictures of flooded houses or buildings - Mila  19:10 - Use machine learning to find energy materials - Nature 23:20 - French-language federal leaders debate 2019 - Maclean’s  24:23 - MIT CSAIL Alliances Podcast   27: 16 - Greta Thunberg - Wikipedia  31:48 - AI Commons  Additional Links    Yoshua Bengio - Google Scholar  Climate Change: How Can AI Help? - Alexandre Lacoste Climate Change AI  EAI Orkestrator - Optimize the use of your compute and storage resources ------------- Épisode en prime – Entretien avec Yohsua Bengio   L’IA peut-elle être utilisée pour aider à résoudre le problème du changement climatique? Si oui, comment?  Dans cet entretien en prime, Yoshua Bengio, chercheur de renommée mondiale dans le domaine de l’apprentissage machine, se joint à l’animateur Alex Shee pour parler du rôle de l’IA dans la résolution de la crise climatique. Des extraits de cette entrevue ont été présentés dans notre épisode sur la durabilité, dans lequel il a donné quelques exemples de la façon dont l’IA est utilisée pour atténuer les changements climatiques et s’y adapter. Dans l’entrevue complète, il partage ses motivations personnelles pour s’impliquer dans l’action climatique et approfondit son travail interdisciplinaire pour résoudre ce qu’il considère comme l’un des plus grands risques existentiels du monde. 2:03 – Mila – Le laboratoire de Yoshua Bengio 2:04 – IVADO – Institut pour la valorisation des données 3:11 – Déclaration de Montréal pour une IA responsable  7:55 – Combattre le changement climatique par l’apprentissage machine – Rolnick et coll., arXiv  11:19 – Mila – IA pour l’humanité 11:30 – Mila – Changement climatique  13:31 – Visualiser les conséquences du changement climatique à l’aide de réseaux contradictoires à cycle constant – Schmidt et coll., arXiv 16:35 – GANS (Generative Adversarial Network) – Wikipédia  16:58 – Aidez la planète en téléchargeant vos photos de maisons ou bâtiments inondés – Mila  19:10 – Utiliser l’apprentissage machine pour trouver des matériaux énergétiques – Nature 23:20 – Débat des dirigeants fédéraux francophones 2019 – Maclean’s  24:23 – Balado MIT CSAIL Alliances   27:16 – Greta Thunberg – Wikipédia  31:48 – IA collective   Liens supplémentaires  Yoshua Bengio – Google Scholar  Changement climatique : comment l’IA peut-elle venir en aide? – Alexandre Lacoste Changement climatique et IA  EAI Orkestrator – Optimisez l’utilisation de vos ressources informatiques et de stockage

  • This week we’re exploring if and how AI can help build a sustainable future. From solving climate change to improving health care, AI is being seen as a technology that can solve some of the world’s biggest problems. But can AI really save us? How can we be sure that AI for Good initiatives are actually helping the people they’re trying to reach? What role can, or should, AI practitioners play in finding solutions? Urvashi Vaneja explains why we should be skeptical of AI for Good initiatives that claim to be a cure-all and she shows how to start thinking constructively about how to do better. Sherif Elsayed-Ali shows how AI for Good can help scale the positive impact of human rights organizations and also why we need to expand our current understanding of human rights. Yoshua Bengio reflects on his recent research into different ways AI can be used to mitigate against and adapt to a changing climate. Yoshua also shares why he decided to use his machine learning expertise to try and solve climate change — and how others in the machine learning community can help, too. AI for Good Summit  UN Sustainable Development Goals  Tandem Research AI for All: 10 Social Conundrums for India: Working Paper - Tandem Research Artificial Intelligence apps risk entrenching India’s socio-economic inequities India’s healthcare: Private vs public sector - Aljazeera Sherif Elsayed-Ali - Twitter Amnesty Tech - Twitter Universal Declaration of Human Rights Training a single AI model can emit as much carbon as five cars in their lifetime - MIT Technology Review Tackling Climate Change with Machine Learning - Bengio et al., arXiv Visualizing the Consequences of Climate Change Using Cycle-Consistent Adversarial Networks - Schmidt et al., arXiv Use machine learning to find energy materials - Nature Additional Links AI-enabled human rights monitoring - Sherif Elsayed-Ali & Tanya O'Carroll Climate Change: How Can AI Help? - Alexandre Lacoste   -------------   Cette semaine, nous examinons si et comment l’IA peut aider à bâtir un avenir durable. De la résolution du changement climatique à l’amélioration des soins de santé, l’IA est perçue comme une technologie qui peut résoudre certains des problèmes les plus importants du monde. Mais l’IA peut-elle vraiment nous sauver? Comment pouvons-nous être sûrs que les initiatives d’IA pour le bien aident réellement les personnes qu’elles essaient d’atteindre? Quel rôle les praticiens de l’IA peuvent-ils, ou devraient-ils, jouer dans la recherche de solutions? Urvashi Vaneja explique pourquoi nous devrions être sceptiques à l’égard des initiatives d’IA pour le bien qui prétendent être un remède universel, et elle montre comment commencer à penser de manière constructive à la façon de faire mieux. Sherif Elsayed-Ali montre comment l’IA pour le bien peut aider à mesurer l’effet positif des organisations de défense des droits de la personne et aussi pourquoi nous devons élargir notre compréhension actuelle des droits de la personne. Yoshua Bengio réfléchit à ses recherches récentes sur les différentes façons dont l’IA peut être utilisée pour atténuer les changements climatiques et s’y adapter. Yoshua explique également pourquoi il a décidé d’utiliser son expertise en apprentissage machine pour essayer de résoudre le problème du changement climatique, et comment d’autres membres de la communauté de l’apprentissage machine peuvent également aider. Sommet sur l’IA pour le bien  Objectifs de développement durable des Nations Unies   Recherche en tandem L’IA pour tous : 10 énigmes sociales pour l’Inde : Document de travail – Recherche en tandem Les applications d’intelligence artificielle risquent d’enraciner les inégalités socio-économiques de l’Inde Les soins de santé en Inde : Secteur privé vs secteur public – Aljazeera Sherif Elsayed-Ali – Twitter Amnesty Tech – Twitter Déclaration universelle des droits de l’homme Former un seul modèle d’IA peut émettre autant de carbone que cinq voitures dans leur

  • Will AI take our jobs? AI’s main application is in the workplace and is being applied along all levels of the payscale. Critics are worried that this could lead to job loss but like any new technology application, it depends on how we implement it. How then can we create AI products that will enhance our capacity for work, not replace it? MIT Institute Professor Daron Acemoglu sheds light on AI’s impact on the job market and how AI could help both low skilled and high skilled workers alike. He breaks down how, if we implement AI properly, it could help expand the labour market and reorganize the way we work. Karthik Ramakrishnan, Head of Advisory at Element AI, talks about how we can successfully implement AI in organizations. The trick -- bring workers into the process.    Guests Daron Acemoglu, Institute professor MIT 1:07 - Daron Acemoglu - MIT 1:20 - Why Nations Fail by Daron Acemoglu  1:20 - Automation and New Tasks: How Technology Displaces and Reinstates Labor 1:39 - COMPUTER AND DYNAMO: THE MODERN PRODUCTIVITY PARADOX IN A NOT-TOO DISTANT MIRROR 7:34 - Karthik Ramakrishnan - Twitter  10:37 - The four pillars of intelligent AI adoption 13:25 - Building a strategic AI roadmap for your business - Karthik Ramkrishnan 18:44 - The Twenty Year History Of AI At Amazon - Forbes  20:34 - The Wrong Kind of AI? Artificial Intelligence and the Future of Labor Demand  21:49 - It’s good jobs, stupid - Daron Acemoglu 22:55 - The Future of Work? Work of the Future! - European Commission Report Further Readings:  Artificial Intelligence, Automation and Work - Daron Acemoglu  The Four Pillars of Intelligent AI Adoption - Karthik Ramakrishnan  The Revolution Need Not Be Automated - Daron Acemoglu, Pascual Restrepo  The Wrong Kind of AI? Artificial Intelligence and the Future of Labor Demand - Daron Acemoglu, Pascual Restrepo  Next-Generation Digital Platforms: Toward Human–AI Hybrids (PDF) How To Become A Centaur - MIT Press Know Your Customers’ “Jobs to Be Done” - HBR   ---------------   L’IA va-t-elle nous voler nos emplois? L’IA est principalement utilisée en milieu de travail et elle s’applique à tous les niveaux de l’échelle salariale. Les détracteurs craignent que cela n’entraîne des pertes d’emplois, mais comme pour toute nouvelle technologie, cela dépend de la façon dont nous la mettons en œuvre. Comment pouvons-nous alors créer des produits d’IA qui amélioreront notre capacité de travail, sans remplacer nos emplois? Daron Acemoglu, professeur au MIT Institute, nous éclaire sur les effets de l’IA sur le marché du travail et sur la façon dont l’IA pourrait aider les travailleurs peu qualifiés et hautement qualifiés. Il explique comment, si nous utilisons correctement l’IA, elle pourrait contribuer à l’expansion du marché du travail et à la réorganisation de nos méthodes de travail. Karthik Ramakrishnan, directeur de l’équipe Conseils et mise en œuvre chez Element AI, parle de la façon dont nous pouvons implémenter l’IA avec succès dans les organisations. L’astuce pour y arriver? Impliquer les travailleurs dans le processus.     Invités Daron Acemoglu, professeur au MIT Institute 1:07 – Daron Acemoglu – MIT 1:20 – Pourquoi les nations échouent avec Daron Acemoglu  1:20 – Automatisation et nouvelles tâches : Comment la technologie déplace et réintègre le travail 1:39 – ORDINATEUR ET DYNAMO : LE PARADOXE DE LA PRODUCTIVITÉ MODERNE DANS UN MIROIR PAS SI LOINTAIN 7:34 – Karthik Ramakrishnan – Twitter  10:37 – Les quatre piliers de l’adoption intelligente de l’IA 13:25 – Élaborer une feuille de route d’IA stratégique pour votre entreprise – Karthik Ramkrishnan 18:44 – Les vingt ans d’histoire de l’IA chez Amazon – Forbes  20:34 – Le mauvais type d’IA? L’intelligence artificielle et l’avenir de la demande demain d’œuvre  21:49 – Ce sont de bons emplois, imbécile – Daron Acemoglu 22:55 – Le futur du marché du travail? Le travail du futur! – Rapport de la Commission européenne Lectures complémentaires :  Intelligence a

  • What is data feudalism? Should machines adapt to us or should we adapt to machines?  How can we reinstate agency and control when it comes to our personal data?  In this bonus episode, Neil Lawrence, Professor of Machine Learning at the University of Cambridge, joins Element AI’s Head of Government and Public Policy Marc Etienne Ouimette to answer these questions and many more. Neil was featured in a previous episode of The AI Element, “In Data We Trust?”, in which he spoke about data trusts and data protection. In this extended interview he shares more of his thoughts on the future of AI and the growing data divide.  1:04 - The Alan Turing Institute - Professor Neil Lawrence  1:34 - Cambridge appoints first Deepmind professor of machine learning  2:07 - Jonnie Penn  2:25 - AI for social good workshop  3:02 - Isaac Asimov’s Foundation - Wikipedia  12:24 - Data Trusts could allay our privacy fears - The Guardian  23:05 - Sylvie Delacroix - Twitter  23:09 - Bottom-Up Data Trusts: Distributing the ‘One Size Fits All Approach to Data Governance - Sylvie Delacroix and Neil Lawrence    Other Readings  Data trusts: reinforced data governance that empowers the public - Element AI  Data Trusts - Inverse Probability  Inverse Probability - Neil Lawrence Blog  Talking Machines Podcast - Neil Lawrence Podcast   ---------   Qu’est-ce que le féodalisme des données? Les machines doivent-elles s’adapter à nous ou devons-nous nous adapter aux machines? Comment pouvons-nous rétablir la capacité d’agir et le contrôle en ce qui concerne nos données personnelles?  Dans cet épisode bonus, Neil Lawrence, professeur d’apprentissage machine à l’Université de Cambridge, se joint au directeur des relations publiques et gouvernementales d’Element AI, Marc-Étienne Ouimette, pour répondre à ces questions et bien d’autres. Neil a participé à un épisode précédent du balado The AI Element intitulé « In Data We Trust? », dans lequel il a parlé des fiducies de données et de la protection des données. Dans cet entretien prolongé, il nous fait part de ses réflexions sur l’avenir de l’IA et sur la division croissante des données.    1:04 – L’Institut Alan Turing – Professeur Neil Lawrence  1:34 – Cambridge nomme le premier professeur d’apprentissage machine chez DeepMind  2:07 – Jonnie Penn  2:25 – Atelier L’IA pour le bien social  3:02 – Fondation Isaac Asimov – Wikipédia  12:24 – Les fiducies de données pourraient apaiser nos craintes en matière de vie privée – The Guardian  23:05 – Sylvie Delacroix – Twitter  23:09 – Fiducies de données ascendantes : Promouvoir l’approche uniformisée « One Size Fits All » pour la gouvernance des données – Sylvie Delacroix et Neil Lawrence   Autres lectures   Fiducies de données : une gouvernance renforcée des données qui habilite le public – Element AI  Fiducies de données – Probabilité inverse  Probabilité inverse – Blogue de Neil Lawrence  Balado Talking Machines – Balado de Neil Lawrence

  • Guests  Richard Zuroff, Director of AI Advisory and Enablement at Element AI Tanya O'Carroll, Director of Amnesty Tech at Amnesty International Alix Dunn, Founder and Director of Computer Says Maybe Jesse McWaters, Financial Innovation Lead at World Economic Forum   AI is a powerful tool and with that power comes a great deal of responsibility. How can we be sure that we’re in control of AI systems? And what should the governance look like?   Data governance is an existing practice that covers a lot of good ground because of how integral data is to AI’s functioning. However, AI’s ability to learn and evolve over time means it will adapt to changes in its environment based on its given objective. That dynamic relationship between environment and model makes things like the design of the system and its objectives just as integral as the data the model runs on. Managing the risks of these new, dynamic systems has been widely branded as “AI Governance”.   Richard Zuroff breaks down the concept of AI governance and how it differs from data governance. Tanya O’Caroll and Alix Dunn tell us about the importance of governance in protecting human rights when building AI systems. Jesse McWaters shares his insights on AI’s impact on the financial sector and why a new form of governance will soon be necessary.    00:48 - How AI risk management is different and what to do about it - Element AI 05:07 - All the Ways Hiring Algorithms Can Introduce Bias - HBR 06:45 - The Why of Explainable AI - Element AI 07:37 - Amnesty Tech - Twitter 07:39 - Computer Says Maybe 07:52 - The Engine Room  10:18 - UN Guiding Principles on Business and Human Rights  14:18 - The Matthew Effect - Wikipedia 15:00 - Agile Ethics - Medium 17:48 - Human Rights Due Diligence 20:07 - The New Physics of Financial Services - World Economic Forum 24:30 - Consumer Financial Protection Bureau 29:00 - GDPR   Other Reading: Putting AI Ethics Guidelines to Work - Element AI  AI-Enabled Human Rights Monitoring - Element AI New Power Means New Responsibility: A Framework for AI Governance - JF Gagne Podcast: Opening the AI Black Box - Element AI     ---------   De la gouvernance des données à la gouvernance de l’IA   Richard Zuroff, directeur du conseil et de la mise en oeuvre de l'IA chez Element AI Tanya O'Carroll, directrice d'Amnesty Tech à Amnistie Internationale Alix Dunn, fondatrice et directrice de Computer Says Maybe Jesse McWaters, responsable de l'innovation financière au World Economic Forum   L’IA est un outil puissant et ce pouvoir s’accompagne d’une grande responsabilité. Comment pouvons-nous être sûrs de contrôler les systèmes d’IA? Et à quoi devrait ressembler la gouvernance?   La gouvernance des données est une pratique existante qui couvre beaucoup de bonnes choses en raison de la façon dont les données font partie intégrante du fonctionnement de l’IA. Cependant, la capacité de l’IA à apprendre et à évoluer au fil du temps signifie qu’elle s’adaptera aux changements de son environnement en fonction de son objectif donné. Cette relation dynamique entre l’environnement et le modèle rend les choses comme la conception du système et ses objectifs tout aussi intégrales que les données sur lesquelles le modèle fonctionne. La gestion des risques de ces nouveaux systèmes dynamiques a été largement qualifiée de « gouvernance de l’IA ».   Richard Zuroff analyse le concept de gouvernance de l’IA et en quoi il diffère de la gouvernance des données. Tanya O’Caroll et Alix Dunn nous parlent de l’importance de la gouvernance dans la protection des droits de la personne lors de l’élaboration de systèmes d’IA. Jesse McWaters nous fait part de son point de vue sur l’effet de l’IA dans le secteur financier et nous explique pourquoi une nouvelle forme de gouvernance sera bientôt nécessaire.    00:48 – En quoi la gestion du risque de l’IA est-elle différente et que faire à ce sujet – Element AI 05:07 – All the Ways Hiring Algorithms Can Introduce Bias - HBR 06:45 – Le «

  • We don’t have enough control over our data—how it is collected, by whom, what it’s used for. We’re used to hitting “accept” to whatever agreement we need to use the online platforms, mobile apps and other digital services that run our daily lives. Yet public awareness is growing about the importance of privacy and data control. Major data breaches and scandals about the misuse of data have shown the failures of the private sector when it comes to self-regulation.  Now, governments and policymakers are stepping in with efforts to address the power imbalance between consumers and big companies when it comes to data. It’s about time — the impact of artificial intelligence could exacerbate that power imbalance, and help the data-rich get richer. Element AI’s Marc-Etienne Ouimette spoke with some of those leading the charge around taking back control of our data and the notion of data trusts — think a union, but for your data.   Guests  Ed Santow, Australia’s Human Rights Commissioner  Christina Colclough, Director of Platform and Agency Workers, Digitalisation and Trade at UNI Global Union Neil Lawrence, Professor of Machine Learning at the University of Sheffield  Show Notes  03:40 - NSW police may be investigated for ‘secret blacklist’ used to target children - The Guardian 07:52 - 94% of Australians do not read all privacy policies that apply to them – and that’s rational behaviour - The Conversation  08:02 - Click to agree with what? No one reads terms of service, studies confirm - The Guardian  10:38 - Up for Parole? Better Hope You’re First on the Docket - The New York Times 14:45 - The GDPR Covers Employee/HR Data and It's Tricky - Dickson Wright 18:08 - Companies are trying to test if they can make employees wear fitness trackers - Business Insider  20:11 - Silicon Valley & the Netherlands: Drivers of the future of automation - Netherlands in the USA 23:34 - Data Trusts - Neil Lawrence, inverseprobability.com  23:48 - Data trusts could allay our privacy fears - The Guardian  32:32 - Data trusts: reinforced data governance that empowers the public - Element AI   Further Reading  What is a data trust? - Open Data Institute Data trusts: reinforced data governance that empowers the public - Element AI Uncertainty and the Governance Dilemma for Artificial Intelligence - Dan Munro Governing AI: Navigating Risks, Rewards and Uncertainty - Public Policy Forum Anticipatory regulation - Nesta  Disturbing the ‘One Size Fits All’ Approach to Data Governance: Bottom-Up Data Trusts - Sylvie Delacroix & Neil Lawrence  Human Rights and Technology Issues - Australian Human Rights Commission The Civic Trust - Sean McDonald & Keith Porcaro Facebook’s privacy policy is longer than the US Constitution - The Next Web   Follow Us  Element AI Twitter Element AI Facebook  Element AI Instagram  Alex Shee’s Twitter Alex Shee’s LinkedIn     ---------   Nous n’avons pas suffisamment de contrôle sur nos données : comment elles sont recueillies, par qui et à quoi elles servent. Nous sommes habitués à « accepter » tout accord dont nous avons besoin pour utiliser les plateformes en ligne, les applications mobiles et autres services numériques qui gèrent notre vie quotidienne. Pourtant, le public est de plus en plus conscient de l’importance de la protection de la vie privée et du contrôle des données. D’importantes atteintes à la protection des données et des scandales concernant l’utilisation abusive des données ont montré les échecs du secteur privé en matière d’autoréglementation.  Aujourd’hui, les gouvernements et les décideurs s’efforcent de remédier au déséquilibre de pouvoir entre les consommateurs et les grandes entreprises lorsqu’il s’agit de données. Et ce n’est pas trop tôt! En effet, l’incidence de l’intelligence artificielle pourrait exacerber ce déséquilibre de pouvoir et aider les personnes riches en données à s’enrichir. Marc-Étienne Ouimette d’Element AI s’est entretenu avec certains des principaux responsables de la pr

  • “Explainability” is a big buzzword in AI right now. AI decision-making is beginning to change the world, and explainability is about the ability of an AI model to explain the reasons behind its decisions. The challenge for AI is that unlike previous technologies, how and why the models work isn’t always obvious — and that has big implications for trust, engagement and adoption. Nicole Rigillo breaks down the definition of explainability and other key ideas including interpretability and trust. Cynthia Rudin talks about her work on explainable models, improving the parole-calculating models used in some U.S. jurisdictions and assessing seizure risk in medical patients. Benjamin Thelonious Fels says humans learn by observation, and that any explainability techniques need to take human nature into account.  Guests Nicole Rigillo, Berggruen Research Fellow at Element AI  Cynthia Rudin, Professor of Computer Science, Electrical and Computer Engineering, and Statistical Science at Duke University Benjamin Thelonious Fels, founder of AI healthcare startup macro-eyes Show Notes  01:11 - Facebook Chief AI Scientist Yann LeCun says rigorous testing can provide explainability01:58 - Berggruen Institute, Transformation of the Human Program05:34 - Judging Machines. Philosophical Aspects of Deep Learning - Arno Schubbach 06:31 - Do People Trust Algorithms More Than Companies Realize? - Harvard Business Review 08:25 - Introducing Activation Atlases - OpenAI10:52 - Learning certifiably optimal rule lists for categorical data (CORELS) - YouTube11:00 - CORELS: Learning Certifiably Optimal RulE ListS 11:45 - Stop Gambling with Black Box and Explainable Models on High-Stakes Decisions 16:52 - Transparent Machine Learning Models for Predicting Seizures in ICU Patients - Informs Magazine Podcast19:49 - The Last Mile: Challenges of deployment - StartupFest Talk24:41 - Developing predictive supply-chains using machine learning for improved immunization coverage - macro-eyes with UNICEF and the Bill and Melinda Gates Foundation Further Reading  A missing ingredient for mass adoption of AI: trust - Element AI Breaking down AI’s trustability challenges - Element AI The Why of Explainable AI - Element AI  Follow Us  Element AI Twitter Element AI Facebook  Element AI Instagram  Alex Shee’s Twitter Alex Shee’s LinkedIn   --  L’« Explicabilité » est un grand mot à la mode en IA en ce moment. La prise de décision en matière d’IA commence à changer le monde, et l’explicabilité concerne la capacité d’un modèle d’IA à expliquer les raisons qui sous-tendent ses décisions. Le défi pour l’intelligence artificielle est que, contrairement aux technologies précédentes, la façon dont les modèles fonctionnent et les raisons pour lesquelles ils fonctionnent ne sont pas toujours évidentes — et cela a de grandes répercussions sur la confiance, l’engagement et l’adoption. Nicole Rigillo décompose la définition de l’explicabilité et d’autres idées clés, y compris l’interprétabilité et la confiance. Cynthia Rudin parle de son travail sur les modèles explicables, l’amélioration des modèles de calcul des libérations conditionnelles utilisés dans certaines juridictions américaines et l’évaluation du risque de crise chez les patients médicaux. Benjamin Thelonious Fels estime que les humains apprennent par l’observation et que toute technique d’explication doit tenir compte de la nature humaine.  Invités Nicole Rigillo, chercheuse de l’Institut Berggruen chez Element AI Cynthia Rudin, professeure d’informatique, de génie électrique et informatique, et de sciences statistiques à l’Université Duke Benjamin Thelonious Fels, fondateur de l’entreprise en démarrage macro-eyes œuvrant en IA dans le domaine de la santé Afficher les notes  01:11 – Yann LeCun, scientifique en chef de l’intelligence artificielle sur Facebook affirme que des tests rigoureux peuvent fournir des explications.01:58 – Institut Berggruen, Transformation du programme humain05:34 – Machines de

  • Societal hype around AI is a byproduct of a few recent scientific breakthroughs — speech recognition, computer vision, natural language processing — in short, a computer’s ability to acquire human senses and mimic the human brain.   Yoshua Bengio (world-renowned professor and head of the Montreal Institute for Learning Algorithms) has been at the front lines of the Deep Learning Revolution that has enabled this kind of innovation. In this episode, he gives an overview of where the tech is actually at: how close is it to mirroring human senses? Featured in this episode: Yoshua Bengio, Head of the Montreal Institute for Learning Algorithms (MILA) Daniel Gross, Partner at Y Combinator and Head of the AI Track Mentioned in the episode: The Rise of Artificial Intelligence through Deep Learning (video), Yoshua Bengio at TEDxMontreal NIPS, the Annual Conference on Neural Information Processing Systems CIFAR, Canadian Institute for Advanced Research Asimov’s Three Laws of Robotics (Wikipedia) Artificial neural networks (Wikipedia)

  • As AI seeps into every industry, businesses are being forced to adapt. Old school industries may not be as lean or quick to pivot as startups, but they have access to a motherlode of funding and data. Still, red tape and outdated infrastructure may block them from the timely AI transformation they need to stay afloat tomorrow. Alex Shee speaks with serial AI entrepreneur JF Gagné about this tension between startups and more corporate environments. Then, 15-year veteran of the insurance industry Natacha Mainville shares some real-world examples of how AI is flipping the industry on its head, forcing incumbents to keep up. Featured in this episode: JF Gagné, CEO of Element AI Natacha Mainville, Chief Innovation Officer at TandemLaunch Mentioned in the episode: JDA Software, retail and supply chain solutions Element AI, AI solutions provider Convolutional neural networks (Wikipedia) Lemonade Renters & Home Insurance, insurance startup

  • Successful adopters of AI develop an AI-first strategy supporting all functional areas of the business: marketing, product development, customer support, sales, and beyond. What does this look like in practice? Naomi Goldapple of Element AI, who consults with execs about AI strategy on the regular, provides some insight. Alex also talks to Chris Benson who was hired at Honeywell to inject AI into the traditional-but-transforming manufacturing and logistics space. He shares some case studies of AI transformation and touches on the pervasive fear of job loss. Featured in this episode: Naomi Goldapple, Program Director at Element AI Chris Benson, Chief Scientist for Artificial Intelligence & Machine Learning at Honeywell Safety & Productivity Solutions Mentioned in the episode: Element AI, AI solutions provider Honeywell, manufacturing and logistics conglomerate company Crash Destroys F-22 Test Model (Eric Schmitt for the New York Times, 1992) Atlanta Deep Learning Meetup (Meetup.com)

  • Every touchpoint with a prospect is an opportunity to nurture that relationship, but also a potential entry point for hackers. Given that cybercriminals are more resourceful than ever, cybersecurity experts need to be just as sharp. Oren Falkowitz is combining past experience at the NSA and US Cyber Command with AI to combat phishing attacks worldwide. In this episode, Alex Shee speaks to him and cybersecurity expert Frederic Michaud about how AI is currently being used to make businesses more safe. Featured in this episode: Frederic Michaud, Director at Element AI Oren Falkowitz, CEO of Area 1 Security Mentioned in the episode: Area 1 Security, performance-based cybersecurity company Hackers, Computer Outlaws: Segment about the history of phreaking (Video) John Draper AKA Cap’n Crunch, phone phreaker extraordinaire

  • Many have dystopian projections of what our future with AI will look like, but professionals working in AI see things differently. For some, our future with AI may simply mean more free time and cheaper access to quality services.   We check in with Jordan Fisher, Daniel Gross, Natacha Mainville and JF Gagné who together paint a picture of what a not-so-distant future might look, especially in retail and insurance. They may not know exactly what the year 2050 will look like, but they are hopeful. Featured in this episode: Daniel Gross, Partner at Y Combinator and Head of the AI Track Natacha Mainville, Chief Innovation Officer at TandemLaunch Jordan Fisher, CEO at Standard Cognition JF Gagné, CEO of Element AI Mentioned in the episode: Standard Cognition, AI-powered checkout Investing in the Future of Retail with Standard Cognition (Further reading) 1920s - What The Future Will Look Like (Video)

  • Charles C Onu is using AI to detect birth asphyxia in babies. His story is inspiring because of its impact on society and the field of healthcare (in 2016, 1,000,000 babies died from asphyxia), but also because of his humble beginnings. In this episode, Charles shows us that a passion for solving problems can help you overcome many obstacles. Host Alex Shee also sits down with Rediet Abebe, co-founder of Black in AI, to expand on how others are using AI to change not just their industry, but the world. Featured in the episode: Charles C Onu, Founder and AI Research Lead at Ubenwa Rediet Abebe, PhD candidate at Cornell, researching AI applications for social good Mentioned in the episode: Ubenwa, birth asphyxia detection system This Nigerian AI Health Startup Wants to Save Thousands of Babies’ Lives with a Simple App (Further reading) Supervised learning (Wikipedia) MOOC, Massive Open Online Courses (MOOCs) Black in AI (GitHub) Women in Machine Learning Mechanism Design for Social Good MacArthur Foundation, Understanding the Public Interest Implications of Artificial Intelligence Toward Ethical, Transparent and Fair AI/ML: A Critical Reading List (Further reading)