Bölümler

  • En este episodio de Derecho al Futuro, exploramos las críticas más destacadas a Nexus: A Brief History of Information Networks From the Stone Age to AI, la última obra de Yuval Noah Harari, publicadas durante su primera semana en el mercado. A través de las opiniones de medios como The Washington Post, The Economist, The Guardian y El País, analizamos las fortalezas y limitaciones del análisis de Harari sobre las redes de información y la inteligencia artificial.

    Harari argumenta que las sociedades humanas se han sostenido más por mitos y narrativas que por hechos, y que la inteligencia artificial está jugando un papel cada vez más activo en este contexto. Sin embargo, los críticos destacan que su enfoque sobre la IA puede ser simplista y alarmista. En este episodio, desglosamos cada crítica, reflexionamos sobre sus implicaciones legales y éticas, y ofrecemos una evaluación balanceada del impacto de Nexus en el debate actual sobre la IA y la responsabilidad tecnológica.

    Sampedro, J. (2024, septiembre 13). ‘Nexus’, de Yuval Noah Harari: Un mundo ahogado en información. El País. https://elpais.com/babelia/2024-09-13/nexus-de-yuval-noah-harari-un-mundo-ahogado-en-informacion.html Poole, S. (2024, septiembre 11). Nexus by Yuval Noah Harari review – end of days? The Guardian. https://www.theguardian.com/books/article/2024/sep/11/nexus-by-yuval-noah-harari-review-the-ai-apocalypse The information wars are about to get worse, Yuval Noah Harari argues. (s. f.). The Economist. Recuperado 17 de septiembre de 2024, de https://www.economist.com/culture/2024/09/06/the-information-wars-are-about-to-get-worse-yuval-noah-harari-argues Smith-Ruiu, J. (2024, septiembre 11). Review | Yuval Noah Harari takes on AI. Washington Post. https://www.washingtonpost.com/books/2024/09/11/nexus-yuval-noah-harari-review/
  • El podcast Derecho al Futuro se centra en un enfoque humanista, invitando a la reflexión sobre cómo la tecnología, en su imparable avance, debe ajustarse y evolucionar para garantizar el respeto a los Derechos Fundamentales y la dignidad humana.

    A lo largo de sus episodios, se exploran los desafíos legales y éticos que surgen en torno a la inteligencia artificial, la privacidad y las nuevas formas de interacción digital, destacando siempre la importancia de colocar al ser humano en el centro de estas transformaciones.

    Derecho al Futuro no solo analiza las implicancias jurídicas de la innovación, sino que propone una mirada crítica y reflexiva sobre cómo las leyes y normativas deben adaptarse para proteger los derechos esenciales en un mundo tecnológico.

  • Eksik bölüm mü var?

    Akışı yenilemek için buraya tıklayın.

  • En este nuevo episodio de Derecho al Futuro, exploramos el creciente impacto de los algoritmos y la inteligencia artificial en el mundo del trabajo. ¿Es posible que nuestro jefe ya no sea una persona, sino un sistema automatizado? En 2020, Antonio Aloisi y Valerio De Stefano lanzaron una provocadora advertencia: “Tu jefe es un algoritmo”, refiriéndose al aumento de sistemas de IA que gestionan tareas cruciales como la contratación, evaluación de rendimiento y despidos. Pero, ¿qué implica realmente que una máquina tome decisiones tan importantes?

    A lo largo del episodio, analizamos cómo la digitalización y el Big Data han permitido que los algoritmos se infiltren en las relaciones laborales. Mientras que antes las decisiones laborales se basaban en el juicio y la empatía humana, hoy, estos procesos son gestionados por cálculos fríos que priorizan la eficiencia por encima de todo. Reflexionamos sobre los peligros de los sesgos algorítmicos, como el caso de Amazon, donde un sistema de contratación algorítmica discriminaba a mujeres.

    Además, abordamos cómo el “taylorismo digital” ha llevado el control del trabajo a un nivel sin precedentes. Plataformas digitales como Teams y Slack no solo facilitan la colaboración, sino que también permiten una vigilancia constante de los trabajadores, transformando cada interacción en datos susceptibles de ser evaluados por algoritmos.

    En el corazón de este episodio se encuentra la cuestión de los derechos laborales. A pesar de los avances tecnológicos, los principios fundamentales de justicia social siguen siendo imprescindibles en esta nueva era. Nos preguntamos: ¿cómo deben adaptarse los marcos legales para proteger a los trabajadores de la explotación digital y los riesgos de la automatización? Exploramos casos emblemáticos como el del sistema SyRI en los Países Bajos, que fue declarado ilegal por discriminar a comunidades vulnerables, y reflexionamos sobre la necesidad de regular el uso de la IA en el trabajo para evitar que perpetúe desigualdades.

    Finalmente, discutimos la aparición del “cognitariado”, una nueva clase de trabajadores que gestionan y producen datos en lugar de bienes materiales. Aunque las tecnologías digitales prometen modernización, estos trabajadores están expuestos a nuevas formas de precariedad y explotación, donde la evaluación continua y la presión constante son la norma.

    Únete a nosotros mientras exploramos cómo garantizar un futuro laboral justo y equitativo en la era de los algoritmos, y qué papel debe jugar el derecho para equilibrar los avances tecnológicos con la protección de la dignidad humana.

    Hashtags:

    #Algoritmos #InteligenciaArtificial #DerechosLaborales #FuturoDelTrabajo #BigData #Tecnología #Automatización #Cognitariado #EmpleoDigital #JusticiaSocial #PrivacidadDeDatos #SesgosAlgorítmicos #EconomíaDigital #IA #TransformaciónLaboral #RegulaciónTecnológica

  • En este episodio de “Derecho al Futuro”, exploramos en profundidad la obra de la Dra. Sussie Alegre, una abogada y académica influyente en el ámbito de los derechos humanos y la ética en la era digital. A medida que las tecnologías emergentes, como la inteligencia artificial, comienzan a redefinir aspectos fundamentales de nuestra vida, la Dra. Alegre nos invita a reflexionar sobre cómo estas herramientas afectan derechos esenciales como la libertad de pensamiento, la privacidad y la autonomía individual.

    A lo largo del episodio, desglosamos sus principales aportes, incluyendo su análisis sobre cómo la manipulación de la información digital puede amenazar la libertad de pensamiento, la necesidad de una regulación ética robusta para la inteligencia artificial, y la importancia de fortalecer las leyes de protección de datos en un mundo dominado por la vigilancia masiva. También abordamos temas emergentes como los neuroderechos, que buscan proteger la integridad mental y emocional de las personas frente a tecnologías que podrían manipular el cerebro humano.

    Este episodio es una llamada a la acción para todos aquellos interesados en la intersección entre derecho, ética y tecnología, ofreciendo una mirada crítica y fundamentada sobre los desafíos que enfrentamos en un mundo cada vez más digitalizado.

    Escúchalo ahora y reflexiona sobre cómo la tecnología influye en tus derechos y libertades fundamentales.

  • En este episodio de Derecho al Futuro, exploramos cómo las revolucionarias teorías de Daniel Kahneman y Lisa Feldman Barrett están transformando nuestra comprensión de la mente humana y su influencia en el desarrollo de la inteligencia artificial emocional. Daniel Kahneman nos enseña que nuestras decisiones están moldeadas por sesgos cognitivos y que muchas veces no somos tan racionales como creemos. Por su parte, Lisa Feldman Barrett desafía la idea de que las emociones son universales y automáticas, proponiendo que se construyen a partir de experiencias y contextos culturales.

    Unimos estas dos perspectivas para entender cómo están moldeando la creación de tecnologías más empáticas y contextuales. También reflexionamos sobre los desafíos éticos y legales que surgen con la inteligencia artificial emocional: ¿cómo aseguramos que estas tecnologías respeten nuestra privacidad emocional y se utilicen de manera justa?

  • En este episodio de Derecho al Futuro, profundizamos en cómo la neurodiversidad y la inteligencia artificial están transformando los entornos laborales y educativos. A través de investigaciones recientes, exploramos cómo las diferencias cognitivas, como el autismo o el TDAH, no son déficits, sino variaciones naturales que pueden aportar ventajas únicas cuando se gestionan adecuadamente. Analizamos cómo la IA puede ser una herramienta poderosa para promover la inclusión, pero también discutimos los riesgos si no se diseña de manera ética y responsable. Un episodio crucial para entender el futuro de la diversidad en un mundo tecnológicamente avanzado.

    Referencias

    Arriagada Bruneau, G. (2024). Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva. La Pollera Ediciones.

    Bankins, S., Ocampo, A. C., Marrone, M., Restubog, S. L. D., & Woo, S. E. (2024). A multilevel review of artificial intelligence in organizations: Implications for organizational behavior research and practice. Journal of Organizational Behavior, 45(2), 159–182. https://doi.org/10.1002/job.2735

    Benton, L., Vasalou, A., Khaled, R., Johnson, H., & Gooch, D. (2014). Diversity for design: A framework for involving neurodiverse children in the technology design process. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 3747–3756. https://doi.org/10.1145/2556288.2557244

    Dawson, G., Franz, L., & Brandsen, S. (2022). At a Crossroads—Reconsidering the Goals of Autism Early Behavioral Intervention From a Neurodiversity Perspective. JAMA Pediatrics, 176(9), 839–840. https://doi.org/10.1001/jamapediatrics.2022.2299

    Doyle, N. (2020). Neurodiversity at work: A biopsychosocial model and the impact on working adults. British Medical Bulletin, 135(1), 108–125. https://doi.org/10.1093/bmb/ldaa021

    Houdek, P. (2022). Neurodiversity in (Not Only) Public Organizations: An Untapped Opportunity? Administration & Society, 54(9), 1848–1871. https://doi.org/10.1177/00953997211069915

    Khan, M. H., Grabarski, M. K., Ali, M., & Buckmaster, S. (2023). Insights into Creating and Managing an Inclusive Neurodiverse Workplace for Positive Outcomes: A Multistaged Theoretical Framework. Group & Organization Management, 48(5), 1339–1386. https://doi.org/10.1177/10596011221133583

    LeFevre-Levy, R., Melson-Silimon, A., Harmata, R., Hulett, A. L., & Carter, N. T. (2023). Neurodiversity in the workplace: Considering neuroatypicality as a form of diversity. Industrial and Organizational Psychology, 16(1), 1–19. https://doi.org/10.1017/iop.2022.86

    Masataka, N. (2017). Implications of the idea of neurodiversity for understanding the origins of developmental disorders. Physics of Life Reviews, 20, 85–108. https://doi.org/10.1016/j.plrev.2016.11.002

    Rebecchi, K. (2023). Neurodiversity and autism: Between disability and difference, science and ideology - Neurodiversité et autisme : entre handicap et différence, science et idéologie. OSF. https://doi.org/10.31234/osf.io/bksxn

    Richards, J., Sang, K., Marks, A., & Gill, S. (2019). “I’ve found it extremely draining”: Emotional labour and the lived experience of line managing neurodiversity. Personnel Review, 48(7), 1903–1923. https://doi.org/10.1108/PR-08-2018-0289

  • En este episodio, exploramos las complejidades detrás de la inteligencia artificial emocional (IA emocional) y cuestionamos algunas de las suposiciones más comunes sobre su funcionamiento. Acompañados por las ideas de la reconocida psicóloga y neurocientífica Lisa Feldman Barrett, analizamos por qué las emociones no pueden ser percibidas de manera universal a través de expresiones faciales o patrones fisiológicos y cómo la IA emocional actual está fallando al basarse en estereotipos simplificados. Descubre por qué las emociones son construcciones activas del cerebro, cómo el contexto influye en su expresión, y qué se necesita para desarrollar una IA emocional verdaderamente efectiva y precisa. Si te interesa el futuro de la tecnología y su relación con el derecho, este episodio es para ti.