エピソード

  • Jaime Sevilla sobre las tendencias en los modelos de inteligencia artificial
    2025/03/07
    En esta entrevista, Jaime Sevilla, director de Epoch AI, analiza la evolución y el futuro del escalado de los modelos de inteligencia artificial. Sevilla explica los tres factores clave que determinan las capacidades de los modelos: poder de cómputo, datos y eficiencia algorítmica, así como las tres eras del aprendizaje automático identificadas por Epoch. La conversación aborda las leyes de escalado de los modelos, los posibles cuellos de botella futuros (energía, chips, escasez de datos y el muro de latencia), y las implicaciones económicas y sociales de estas tendencias para el futuro de la humanidad.
    続きを読む 一部表示
    1 時間 16 分
  • Laura Sofía Castro sobre la generación y uso de evidencia en políticas públicas y medición de impacto
    2025/02/10
    Laura Sofía Castro es cofundadora de ACTRA, una ONG dedicada a reducir la violencia en América Latina a través de programas basados en evidencia. Su primera iniciativa se centra en intervenciones de Terapia Cognitivo-Conductual (TCC). Anteriormente, trabajó en Innovations for Poverty Action (IPA), ayudando a distintas organizaciones y equipos gubernamentales a diseñar sistemas para medir y mejorar el impacto de sus programas.
    続きを読む 一部表示
    1 時間 14 分
  • José Jaime Villalobos sobre la mitigación de riesgos existenciales y la protección de generaciones futuras a través del derecho
    2024/05/17
    José Jaime Villalobos, afiliado al Legal Priorities Project y experto en derecho internacional, explora en este episodio cómo el derecho puede enfrentar problemas globales significativos, destacando su importancia para proteger a las generaciones futuras. También se refiere a la intersección entre el derecho y la tecnología, en particular la regulación de la biología sintética y la inteligencia artificial, subrayando la necesidad de adaptar nuestras instituciones para manejar riesgos emergentes.
    続きを読む 一部表示
    1 時間 26 分
  • Adrià Garriga-Alonso sobre el riesgo existencial asociado a los modelos de lenguaje a gran escala
    2024/05/17
    En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.
    続きを読む 一部表示
    53 分