28 junio 2025

El rol estratégico de los marcos en la investigación científica contemporánea

Por: Aldo Zanabria 

Introducción

En el contexto actual de la investigación científica y académica, donde la producción de conocimiento se acelera con el uso de tecnologías emergentes y enfoques interdisciplinarios, la correcta estructuración de los marcos de investigación se convierte en una necesidad insoslayable. Estos marcos no son simples secciones formales del informe de investigación, sino que constituyen estructuras epistémicas que guían, justifican y delimitan el estudio. Este artículo de opinión reflexiona sobre la importancia de los marcos teórico, referencial, conceptual, contextual y metodológico, desde una perspectiva crítica y articulada.



1. El marco teórico: fundamento epistémico del estudio

El marco teórico es la piedra angular que sustenta cualquier proceso investigativo. Su objetivo no es únicamente citar autores, sino analizar, contrastar y articular teorías, modelos y enfoques que permitan comprender el fenómeno investigado. De acuerdo con QuestionPro (2023), este marco “proporciona la estructura conceptual necesaria para entender, contextualizar y abordar eficazmente un problema de investigación específico”. En esa línea, los investigadores deben evitar la acumulación indiscriminada de información y, más bien, construir una narrativa coherente que evidencie una postura científica fundamentada.

2. Marco referencial: estado del arte y necesidad de investigación

El marco referencial se diferencia del teórico en que se enfoca en estudios previos, normativas vigentes y experiencias empíricas documentadas. Este análisis permite identificar vacíos de conocimiento, tendencias recientes y debates no resueltos. Una revisión crítica del estado del arte no solo legitima el estudio, sino que ayuda a precisar el nivel de originalidad de la propuesta. En investigaciones actuales, como las de inteligencia artificial aplicada a la educación o la gestión pública, este marco es clave para contextualizar avances recientes y evitar duplicidad metodológica.

3. Marco conceptual: claridad terminológica y rigor científico

El marco conceptual cumple la función de delimitar los conceptos clave del estudio, precisando su sentido operacional y contextualizado. No basta con usar definiciones de diccionario; se requiere fundamentación académica que aclare el uso de los términos dentro del enfoque del investigador. Ferrari (2013), en su estudio sobre competencias digitales, plantea que definir conceptos como “alfabetización digital” o “competencia tecnológica” debe responder a criterios pedagógicos, técnicos y sociales. Un marco conceptual bien construido evita ambigüedades y fortalece la interpretación de los resultados.

4. Marco contextual: delimitación espacial, social y temporal

El marco contextual describe el entorno en el cual se desarrolla el estudio, integrando variables como localización geográfica, condiciones sociales, dimensiones institucionales y temporalidad. Este marco es vital para situar el fenómeno en su realidad concreta, especialmente en estudios de caso, investigaciones educativas o análisis de políticas públicas. La omisión o superficialidad en este apartado limita la validez externa del estudio y reduce su posibilidad de replicación. En tiempos postpandémicos, este marco adquiere mayor relevancia para entender cambios abruptos en comportamiento social, dinámicas escolares o variables económicas.

5. Marco metodológico: transparencia y replicabilidad

El marco metodológico describe el “cómo” del estudio: enfoque, tipo de investigación, diseño, población, muestra, instrumentos y análisis. Más allá de ser una receta técnica, representa un acto de transparencia científica. Rivas (2022) sostiene que “es la parte del escrito donde se argumentan los métodos, procedimientos y limitaciones para la recopilación de datos”. Por su parte, Artigas y Valencia-Arias (2024) destacan su rol como elemento de replicabilidad, lo cual permite que futuras investigaciones repliquen o validen los hallazgos.

Conclusión

Los marcos de investigación son más que secciones de una tesis o artículo académico. Representan el esqueleto argumentativo, metodológico y contextual que permite sostener la validez científica del estudio. Ignorarlos o tratarlos de forma mecánica es un error común que puede afectar gravemente la calidad del trabajo. Por ello, es necesario no solo conocerlos, sino dominarlos y articulándolos de manera lógica y coherente. El futuro de la investigación exige rigor, claridad y pertinencia, y los marcos investigativos son el instrumento clave para lograrlo.

Referencias

Artigas, W., & Valencia‑Arias, A. (2024). Marco metodológico de la investigación. En M. Pereira Burgos (Ed.), Trabajo de grado: elaborar y publicar sus resultados (pp. 61–77). High Rate Consulting. https://doi.org/10.38202/trabajodegrado4

Ferrari, A. (2013). DIGCOMP: A Framework for Developing and Understanding Digital Competence in Europe. European Commission. https://publications.jrc.ec.europa.eu/repository/handle/JRC83167

QuestionPro. (2023). Marco teórico: qué es y cómo redactarlo con ejemplos. QuestionPro. https://www.questionpro.com/blog/es/marco-teorico/

Rivas, A. (2022, septiembre 9). Marco metodológico: ¿Cómo redactar y cuál es su estructura? Guía Normas APA. https://normas-apa.org/marco-metodologico/


25 junio 2025

La música como espejo digital del Perú: opinión sobre el cambio de consumo musical en la era del streaming

Por Aldo Zanabria

En la última década, el consumo musical en el Perú ha sido atravesado por una transformación digital profunda. Lo que antes era un acto social o ritual a través de la radio o los discos compactos, hoy se ha convertido en una experiencia personalizada e íntima, mediada por algoritmos, interfaces digitales y playlists ajustadas al estado de ánimo. El reciente estudio “Así Suena el Perú: Panorama del Consumidor Musical 2024”, realizado por Publicis Groupe Perú, ofrece una radiografía clave para entender estos cambios.

Uno de los datos más impactantes es que el 88 % de los peruanos consume música a través de plataformas digitales (Publicis Groupe Perú, 2024). Este giro no solo revela una transformación tecnológica, sino también cultural. El uso de plataformas como Spotify, YouTube o Apple Music ha descentralizado la producción y circulación musical. Ahora, cualquier persona con acceso a internet puede convertirse en curador de su propio universo sonoro. Esta autonomía representa un acto de apropiación emocional de la música, donde el oyente no es pasivo, sino partícipe activo de su consumo.

Sin embargo, no todo es digital. El mismo informe indica que un 48 % de la población aún escucha radio, especialmente en el interior del país, donde géneros como la cumbia y la música folclórica mantienen una fuerza cultural indiscutible. La radio sigue siendo un espacio de encuentro colectivo, y su persistencia demuestra que la modernización no implica necesariamente la extinción de los formatos tradicionales, sino una coexistencia enriquecida.

El estudio también destaca cómo las marcas están entendiendo el valor emocional de la música como vehículo de conexión. Empresas como Pilsen, Bembos y El Comercio lideran el patrocinio de conciertos masivos (Publicis Groupe Perú, 2024), utilizando la música como canal de fidelización. Esta “musicalización del marketing” se intensifica en contextos post-pandemia, donde la emocionalidad del consumidor se ha vuelto un activo estratégico para las marcas.

En cuanto a géneros, el reguetón domina en Lima, mientras que en el interior destacan la cumbia y lo folclórico. Estos datos no son banales: evidencian la diversidad cultural del país y el papel de la música en la construcción de identidades regionales. Además, el estudio indica que el nivel socioeconómico condiciona el gusto musical: mientras los NSE altos prefieren el rock y el indie, los NSE medios y bajos se inclinan por lo popular y rítmico. Aquí, la música se convierte también en un indicador de clase y de acceso a capital cultural.

La música, por tanto, ya no es un fondo sonoro: es una expresión política, una estrategia de mercado y una tecnología emocional. Este cambio merece no solo análisis académico, sino también una reflexión ética. ¿Qué perdemos cuando los algoritmos nos dicen qué escuchar? ¿Qué sucede con las expresiones tradicionales cuando no entran en las lógicas del mercado digital?

En suma, el estudio de Publicis nos recuerda que la música no es solo entretenimiento. Es un espejo de nuestra sociedad, un mapa de nuestras emociones y una herramienta de transformación social. En el Perú de hoy, escuchar música es también una forma de habitar el país, de narrarse a uno mismo y de conectar con los otros, aunque sea con audífonos puestos.




En el marco de los cursos de tecnología, economía e innovación que imparto, los estudiantes pueden desarrollar investigaciones aplicadas en diversas líneas temáticas. Entre ellas destacan: el impacto del streaming musical en el comportamiento del consumidor digital peruano, análisis predictivo del consumo cultural mediante machine learning, estudios sobre segmentación musical por nivel socioeconómico y región geográfica, uso de inteligencia artificial para personalización de contenidos musicales, marketing emocional y patrocinio en eventos musicales masivos, y transformación digital en medios tradicionales como la radio. Asimismo, se pueden abordar temas transversales como la economía creativa y su articulación con el desarrollo regional, la influencia de los algoritmos en la diversidad cultural, o la representación de las identidades culturales en plataformas de música digital, todo ello bajo un enfoque interdisciplinario que articule ciencias de la computación, historia cultural y análisis económico.

Referencias:

Gestión. (2024, junio). El 88% de peruanos escucha música a través de plataformas digitales. Diario Gestión. https://gestion.pe/economia/el-88-de-peruanos-escucha-musica-a-traves-de-plataformas-digitales

Portal Publicitario. (2024, junio 6). Así Suena el Perú: Publicis Groupe Perú revela el Panorama del Consumidor Musical 2024. https://www.portalpublicitario.pe/asi-suena-el-peru-estudio-publicis

DossierNet. (2024). Publicis Groupe Perú presentó el estudio: Así suena el Perú 2024. https://dossiernet.pe/notas/2024/06/estudio-asi-suena-el-peru/

Publicis Groupe Perú. (2024). Panorama del Consumidor Musical Peruano 2024 [Estudio ejecutivo]. LinkedIn y publicaciones oficiales.

La expresión de las emociones: de Darwin a la inteligencia artificial sensible

Por Aldo Zanabria

La obra de Charles Darwin The Expression of the Emotions in Man and Animals (1872) supuso un cambio de paradigma al plantear que las emociones humanas no eran fenómenos aislados, sino parte de un legado evolutivo compartido con otras especies. Hoy, a más de 150 años, este legado encuentra una sorprendente resonancia en el desarrollo de inteligencia artificial emocional (analisis de sensibilidad), donde máquinas aprenden a reconocer, simular o incluso responder a expresiones humanas como parte de su interfaz adaptativa.

Darwin como precursor de los sistemas afectivos artificiales

Darwin argumentó que la expresión emocional tiene bases fisiológicas comunes entre humanos y animales. En la actualidad, este principio ha sido adoptado por disciplinas como el Affective Computing, término acuñado por Rosalind Picard (1997), y que se basa en enseñar a las máquinas a percibir e interpretar emociones humanas. Algoritmos de visión artificial entrenados con redes neuronales convolucionales (CNN) ahora pueden reconocer microexpresiones faciales, tensión muscular y señales de voz para inferir estados emocionales (Ekman, 1992; Jack et al., 2014).

Por ejemplo, los sistemas modernos de reconocimiento facial emocional, como Affectiva o OpenFace, aprenden del etiquetado de grandes conjuntos de datos sobre expresiones humanas. Esta tecnología tiene aplicaciones en salud mental, videojuegos adaptativos, marketing personalizado y educación emocional.

Inteligencia Artificial y el análisis de sensibilidad: ¿qué tan importante es cada emoción?

El análisis de sensibilidad, una técnica estadística usada en machine learning, permite determinar qué variables afectan más a una salida del modelo. Cuando aplicamos esta técnica a modelos de reconocimiento emocional, podemos evaluar, por ejemplo, si el movimiento de las cejas o el tono de voz influye más en la identificación de ira o tristeza. Así, podemos hacer ingeniería inversa del sistema emocional artificial y entender cuáles "inputs" tienen mayor peso —exactamente como Darwin hizo en sentido inverso, deduciendo comportamientos desde observaciones fenotípicas.

Esto permite desarrollar sistemas explicables de IA emocional, alineados con los principios del Explainable AI (XAI). Por ejemplo, en un chatbot que atiende a adultos mayores, saber que el reconocimiento del ceño fruncido tiene mayor peso que el volumen de voz en la detección de incomodidad permite diseñar respuestas más humanas.

De la evolución a la emulación

Darwin consideraba que ciertas expresiones eran residuos evolutivos heredados. Hoy podríamos decir que los modelos de IA, en especial los de aprendizaje profundo, también heredan "rasgos" de los datos con los que se entrenan, incluyendo prejuicios, errores y patrones culturales. El reconocimiento emocional en IA debe, por tanto, incorporar una dimensión ética y cultural, ya que no todas las culturas expresan las emociones de la misma manera (Matsumoto & Hwang, 2013; Russell, 1994).

El bias algorítmico en el reconocimiento emocional es un área crítica. Estudios han demostrado que algunos modelos interpretan erróneamente la expresión facial de personas afrodescendientes o asiáticas si fueron entrenados principalmente con rostros europeos (Barrett, 2017).

Conclusión: Darwin en la era de los algoritmos

Darwin ofreció una visión profundamente observacional y evolutiva de la expresión emocional. Hoy, esa visión se integra con modelos algorítmicos que procesan emociones con millones de variables. El análisis de sensibilidad permite auditar estos modelos y entender la importancia relativa de los factores que determinan cómo una máquina "comprende" una emoción. Esta convergencia entre biología evolutiva y computación emocional nos lleva a una nueva frontera: el diseño de inteligencias artificiales que no solo razonan, sino que también sienten —al menos superficialmente— como nosotros.

Referencias:

Affectiva. (2023). Emotion AI technology. https://www.affectiva.com

Barrett, L. F. (2017). How emotions are made: The secret life of the brain. Houghton Mifflin Harcourt.

Darwin, C. (1872). The expression of the emotions in man and animals. John Murray. https://www.biodiversitylibrary.org/item/126093#page/7/mode/1up

Ekman, P. (1992). An argument for basic emotions. Cognition & Emotion, 6(3–4), 169–200. https://doi.org/10.1080/02699939208411068

Jack, R. E., Garrod, O. G. B., & Schyns, P. G. (2014). Dynamic facial expressions of emotion transmit an evolving hierarchy of signals over time. Current Biology, 24(2), 187–192. https://doi.org/10.1016/j.cub.2013.11.064

Matsumoto, D., & Hwang, H. S. (2013). Cultural similarities and differences in emblematic gestures. Journal of Nonverbal Behavior, 37(1), 1–27. https://www.davidmatsumoto.com/content/2013%20M%20and%20H%20JNB%20-%20Cultural%20Similarities%20and%20Differences%20in%20Emblematic%20Gestures.pdf?hl=es-Es



Panksepp, J. (2005). Affective consciousness: Core emotional feelings in animals and humans. Consciousness and Cognition, 14(1), 30–80. https://doi.org/10.1016/j.concog.2004.10.004

Picard, R. W. (1997). Affective computing. MIT Press. https://mitpress.mit.edu/9780262161701/affective-computing/

Russell, J. A. (1994). Is there universal recognition of emotion from facial expressions? Psychological Bulletin, 115(1), 102–141. https://doi.org/10.1037/0033-2909.115.1.102

Saltelli, A., Tarantola, S., & Campolongo, F. (2000). Sensitivity analysis as an ingredient of modeling. Statistical Science, 15(4), 377–395. https://doi.org/10.1214/ss/1009213004

Samek, W., Wiegand, T., & Müller, K. R. (2017). Explainable artificial intelligence: Understanding, visualizing and interpreting deep learning models. arXiv. https://arxiv.org/abs/1708.08296



13 junio 2025

Inteligencia artificial para una agricultura sustentable: lecciones y desafíos desde el panel ITCG–DIMA 2025

Aldo Hernán Zanabria Gálvez

Investigador en IA aplicada - Grupo de Investigación en IA y CD aplicada. UNA PUNO


Resumen

La agricultura —una de las actividades más antiguas de la humanidad— está viviendo una transformación sin precedentes gracias a la inteligencia artificial (IA). En un foro celebrado recientemente, expertos de España, Chile, Perú y El Salvador compartieron sus experiencias y visiones sobre cómo la IA redefine las prácticas agrícolas, desde la gestión eficiente del agua hasta la detección temprana de plagas.

En mayo de 2025, el Instituto Tecnológico de Ciudad Guzmán (ITCG) y la Expo Agrícola Jalisco (DIMA) organizaron un panel internacional sobre innovación digital y agricultura de precisión. Participaron especialistas de los mismos países, quienes presentaron casos reales basados en visión artificial, sensórica IoT, drones multiespectrales y analítica hídrica. Este artículo sintetiza los proyectos más relevantes, los retos comunes y los acuerdos de colaboración surgidos en la sesión, aplicando criterios de corrección ortográfica y semántica para ofrecer una lectura clara y fluida.

1. Introducción

La agricultura contemporánea se encuentra en la encrucijada de tres fuerzas convergentes:

  1. Cambio climático – patrones meteorológicos extremos alteran ventanas de siembra, expanden rangos de plagas y reducen la previsibilidad de los rendimientos (Flores, 2023).

  2. Escasez hídrica – el sector primario consume cerca de 70 % del agua dulce disponible; cada punto porcentual de eficiencia liberado equivale a millones de metros cúbicos recuperados para consumo humano y ecosistemas.

  3. Exigencias de trazabilidad y sostenibilidad – los mercados internacionales, amparados en pactos como el Pacto Verde de la UE o el US Food Safety Modernization Act, demandan registros «de la semilla al anaquel» que certifiquen inocuidad, origen ético y huella de carbono controlada.

A estas presiones se suman retos adicionales: degradación de suelos, envejecimiento de la mano de obra rural y vulnerabilidad de las cadenas logísticas globales, expuestas durante la pandemia de COVID-19 y los recientes conflictos geopolíticos. En este escenario, la inteligencia artificial (IA) y la sensórica (IoT, drones, espectroscopía portátil) despuntan como herramientas estratégicas: permiten optimizar insumos en tiempo real, pronosticar rendimientos con semanas de antelación y reducir mermas poscosecha mediante clasificaciones automatizadas de calidad.

Sin embargo, la adopción tecnológica no es un proceso lineal; requiere datos robustos, conectividad rural y capital humano multidisciplinar. Allí es donde interviene la iniciativa conjunta del Instituto Tecnológico de Ciudad Guzmán (ITCG) y la Expo Agrícola Jalisco (DIMA). El panel ITCG–DIMA 2025 se concibió como un «laboratorio social» que articula a investigadores, productores, startups y organismos públicos para co-crear soluciones replicables en toda Latinoamérica (Romo, 2025). Bajo un formato de diálogo abierto, la jornada reunió experiencias de España, Chile, Perú y El Salvador, demostrando que la región posee tanto los desafíos como las capacidades para convertirse en un polo de innovación agro-digital.

En las páginas siguientes se sistematizan las lecciones aprendidas, los acuerdos de colaboración y las líneas de investigación prioritarias que emergieron de este encuentro, con la convicción de que sembrar innovación hoy es la vía más segura para cosechar un futuro alimentario resiliente y equitativo.




2. Metodología de la sesión

El encuentro se celebró vía Zoom durante 2 h 30 min. Cada experto dispuso de 10–15 min para exponer su caso; posteriormente se abrió un debate guiado por el ITCG. Para la presente síntesis se aplicó:

  1. Transcripción limpia (supresión de marcas de tiempo y muletillas).

  2. Corrección ortográfica y de concordancia según RAE (2024).

  3. Estructuración temática (proyectos, retos, acuerdos).

3. Proyectos emblemáticos

PaísInvestigador(a)Cultivo / problemaTecnología empleadaResultados clave
EspañaDr. Jordi Cruz (IRTA–EUSS)Frijol, tomate y pinoEspectroscopía NIR/hiperespectral + modelos multivariantesPredicción semicuantitativa de patógenos y estrés hídrico; determinación in situ de grados Brix en tomate.
ChileIng. Gustavo Plaza (Sector privado)Cuotas de riego en berries, aguacate y cañaIoT de caudal + chatbot WhatsApp + panel Power BIReducción de multas por uso excesivo de agua y trazabilidad minuto a minuto para 120 predios.
El SalvadorDr. Jackdiel Flores (UDB)Café, caña, mango, maízDrones multiespectrales, CNN YOLO v11, quimiometría RamanDetección temprana de roya y broca; optimización de nitrógeno en caña (−25 % fertilizante, +8 % rendimiento).
PerúDr. César Beltrán (PUCP)Café orgánico y quinua andinaVisión artificial en cintas, deep learning, drones RGBClasificación automática de defectos físicos (13 tipos) con 95 % F1; estimación de cosecha de quinua con 9 semanas de antelación.

La Gestión Hídrica: Un Desafío Global con Soluciones Innovadoras

El uso eficiente del agua es una preocupación apremiante a nivel mundial, y Gustavo Adolfo Plaza de Chile presentó una innovadora solución a este desafío. Ante la estricta regulación de la Dirección General de Agua en Chile, que exige a la agroindustria informar cada gota de agua utilizada, se generó una vasta cantidad de datos. A través de análisis de datos, drones e imágenes satelitales, se monitorea la hidratación de la vegetación y se detectan usos irregulares. Lo más notable es el desarrollo de una herramienta basada en WhatsApp, inspirada en ChatGPT, que permite a los pequeños agricultores consultar en tiempo real si pueden regar y por cuánto tiempo, promoviendo un uso responsable del recurso. A pesar del éxito, Gustavo señaló la persistente barrera de la resistencia de los agricultores a adoptar nuevas tecnologías, subrayando la necesidad de soluciones más amigables y accesibles.

En México, Juan Carlos Romo y Jaime Cuevas de Grupo Dima y Expo Agrícola Jalisco, resaltaron que Jalisco es el "gigante agroalimentario" del país, doblando el PIB de su competidor más cercano. Sin embargo, compartieron la preocupación por el uso indiscriminado del agua, a pesar de la existencia de regulaciones. Elogiaron el sistema chileno como un modelo a seguir en la medición y control hídrico, enfatizando el reto que aún tienen en México para una gestión más eficiente del agua.

Lucha contra Plagas y Optimización de Cultivos Regionales

Jackdiel de El Salvador, con experiencia previa en acuicultura en Alemania, ha continuado su labor en agricultura de precisión, adaptando tecnologías a los cultivos locales. Sus investigaciones en café para combatir la roya y la broca son cruciales, explorando el uso de drones con cámaras multiespectrales para la detección temprana. Ha demostrado la falta de tecnología avanzada en los sistemas agroforestales y la necesidad de una mayor inversión en este ámbito. En la caña de azúcar, sus estudios han revelado que la aplicación de nitrógeno en los primeros estadios no es necesaria, lo que ha generado significativos ahorros económicos. La detección de pulgones en limón y el análisis de enfermedades y madurez en mango con drones, así como la colaboración con Jordi en la detección de plagas en pinos en España, demuestran la versatilidad de la IA en la agricultura. Jackdiel también destacó la importancia de integrar más tecnología para medir las condiciones medioambientales y entender cómo los sistemas agroforestales influyen en la producción y calidad del café.

La Innovación Abierta: Un Camino a Seguir

El foro concluyó con un llamado a la innovación abierta, buscando que los empresarios del campo colaboren más estrechamente con las universidades. El objetivo es que las necesidades del sector agrícola lleguen a los centros de investigación, fomentando el desarrollo de soluciones adaptadas y en contacto con expertos de todo el mundo.

En definitiva, la inteligencia artificial no es solo una promesa para la agricultura; es una realidad que está transformando la forma en que cultivamos nuestros alimentos. A pesar de los desafíos inherentes a la adopción tecnológica y la necesidad de una mayor integración y accesibilidad, el camino hacia una agricultura más eficiente, sostenible y productiva ya ha comenzado, impulsado por la innovación y la colaboración global.

4. Retos transversales

  1. Datos longitudinales insuficientes

    • Requerimiento mínimo: ≥ 10 ciclos productivos para modelar clima, suelo y patógenos (Cruz, 2025).

  2. Conectividad rural

    • Persistencia de redes 3G en zonas andinas y mexicanas; Starlink y LoRaWAN se perfilan como mitigantes (Plaza, 2025).

  3. Brecha de talento

    • Escasez de perfiles que mezclen agronomía, IA y electrónica; se sugirió crear programas híbridos en el ITCG (Beltrán, 2025).

  4. Costos de sensórica avanzada

    • Cámaras hiperespectrales > USD 90 000; se propuso co-crear versiones de bajo costo con universidades.

5. Acuerdos y líneas de acción

  1. Consorcio de datos abiertos LATAM-AgroIA

    • Repositorio regional de imágenes y variables microclimáticas (liderazgo inicial: ITCG, PUCP, UDB).

  2. Pilotos de bajo costo 2025-2026

    • Probar espectrómetros portátiles NIR (< USD 800) para café y aguacate en Jalisco y Cusco.

  3. Programa de estancias multidisciplinarias

    • Estudiantes de sistemas y agronomía realizarán prácticas conjuntas en los predios de DIMA y en laboratorios del IRTA.

  4. Seguimiento anual en Expo Agrícola Jalisco 2026

    • Tema oficial: “Sembrando innovación, cosechando futuro”.

6. Conclusión

El panel confirmó que la IA ya es una realidad operativa en la agricultura latina—desde la clasificación de café en Perú hasta la gestión hídrica en Chile—pero su impacto masivo depende de datos robustos, conectividad y capital humano. Iniciativas como el consorcio LATAM-AgroIA y la apertura de la carrera de IA en el ITCG apuntan a cerrar esas brechas. La invitación queda abierta para que investigadores, productores y entes públicos siembren innovación y, con ello, cosechen un futuro sustentable.

Referencias

Beltrán, C. (2025, mayo 15). Clasificación de defectos en café usando visión artificial [presentación]. Panel ITCG–DIMA, Ciudad Guzmán, México.

Cruz, J. (2025, mayo 15). Aplicaciones de espectroscopía NIR en agricultura de precisión. Panel ITCG–DIMA.

Flores, J. (2023). Agricultura inteligente en Mesoamérica: retos y oportunidades. Revista Centroamericana de Tecnología Agroindustrial, 7(2), 45-60.

Plaza, G. (2025, mayo 15). Chatbots y analítica para gestión hídrica en Chile. Panel ITCG–DIMA.

Romo, J. C. (2025). Memoria Anual DIMA 2024-2025 (Anuario N.º 18). Expo Agrícola Jalisco.






10 junio 2025

Desmitificar la Inteligencia Artificial: Crítica a los mitos tecnodominantes y propuesta para una alfabetización digital crítica

 Por: Aldo Hernán Zanabria Gálvez 

Resumen

La Inteligencia Artificial (IA) ha dejado de ser una promesa futurista para convertirse en una estructura de poder que opera bajo narrativas mitificadas. Estas narrativas, promovidas por sectores corporativos, tecnólogos e incluso marcos institucionales estatales, configuran una visión distorsionada y acrítica de lo que realmente implica el uso y expansión de la IA. En este artículo se revisan los seis mitos más difundidos —identificados por Galanos et al. (2020)— a través de una revisión crítica apoyada en literatura científica y académica reciente (Broussard, 2018; Crawford, 2021; Mitchell, 2021). Asimismo, se discuten las consecuencias sociales, epistémicas y ambientales de sostener dichos mitos, y se propone una ruta de alfabetización digital crítica con un enfoque contextual para América Latina.

1. Introducción

La narrativa que rodea a la Inteligencia Artificial, como bien señalan Ganascia (2022), Crawford (2021) y Broussard (2018), está más cargada de imaginarios que de comprensiones técnicas o éticas. Se presenta la IA como una suerte de oráculo digital: infalible, neutral, inevitable. Sin embargo, estas representaciones son construcciones culturales que obedecen a intereses concretos —políticos, económicos y militares— antes que a la realidad tecnológica. De hecho, tal como advierte Leufer (2020), el mito de una IA omnipotente y autónoma suele operar como legitimador de desigualdades estructurales, invisibilizando tanto el trabajo humano detrás de su funcionamiento como su huella ecológica. Es urgente, por tanto, desmontar estos relatos para formular una política pública y educativa verdaderamente democrática y emancipadora (UNESCO, 2023; Villarreal, 2024).


2. Mito 1: “La IA aprende como los humanos”

Este mito representa una de las falacias más persistentes en la cultura tecnológica contemporánea. Aunque los sistemas de machine learning pueden identificar patrones complejos, no comprenden el mundo de forma semántica ni contextual (Mitchell, 2021; Broussard, 2018; Leufer, 2020). A diferencia del aprendizaje humano, que es experiencial, situado y mediado por estructuras simbólicas, los modelos de IA aprenden por correlación estadística sin entender causalidades. Además, como señalan Crawford (2021), Galanos et al. (2020) y Villarreal (2024), el entrenamiento de estos sistemas depende de datasets curados por humanos que, a menudo, están impregnados de sesgos históricos, raciales y de género. Así, lejos de emular la cognición humana, la IA refleja los límites de su arquitectura técnica y los prejuicios de sus diseñadores.

3. Mito 2: “La IA reemplazará todos los empleos”

La narrativa de la “automatización total” ha sido instrumentalizada para justificar recortes laborales y reformulaciones neoliberales del trabajo (Eubanks, 2018; Crawford, 2021; Giray, 2024). Sin embargo, como advierten Mitchell (2021) y Broussard (2018), los sistemas de IA no sustituyen completamente al trabajador humano, sino que lo reconfiguran, muchas veces precarizándolo. Plataformas como Amazon Mechanical Turk evidencian una nueva clase obrera digital global, mal remunerada, invisibilizada y sin derechos (Crawford, 2021; Villarreal, 2024; UNESCO, 2023). Lejos de liberar al sujeto del trabajo alienado, la IA ha profundizado modelos de explotación algorítmica que fragmentan tareas, impiden la organización sindical y exacerban la desigualdad.

4. Mito 3: “La IA es inmaterial”

Uno de los engaños más extendidos es la ilusión de que la IA “habita la nube” y por tanto carece de impactos físicos. En realidad, como muestran Crawford (2021), Galanos et al. (2020) y Villarreal (2024), los sistemas de IA consumen enormes cantidades de energía, requieren minerales escasos como el litio o el cobalto, y dependen de infraestructuras industriales altamente contaminantes. Ganascia (2022) agrega que la lógica extractiva que sostiene la IA replica patrones coloniales, ya que la obtención de estos recursos recae principalmente sobre comunidades indígenas y naciones del sur global. De igual forma, la huella hídrica de los centros de datos y el uso intensivo de electricidad desafían cualquier afirmación sobre una IA “verde” o “sustentable” (UNESCO, 2023; Leufer, 2020; Mitchell, 2021).

5. Mito 4: “La IA tiene personalidad”

El antropomorfismo es una estrategia discursiva que facilita la aceptación social de tecnologías opacas (Galanos et al., 2020; Leufer, 2020; Mitchell, 2021). Aplicaciones como Siri o ChatGPT son frecuentemente percibidas como agentes con intención, afectividad o juicio moral, cuando en realidad se trata de sistemas basados en procesamiento de lenguaje sin comprensión real. Esta ilusión genera un falso sentido de confianza, delegando decisiones a sistemas que carecen de responsabilidad o agencia legal (Broussard, 2018; Crawford, 2021; Villarreal, 2024). Además, como señalan Giray (2024) y UNESCO (2023), la personificación de la IA refuerza la idea de una subjetividad computacional que nunca existió, desplazando la agencia humana y debilitando el control democrático sobre la tecnología.

6. Mito 5: “La IA actúa de forma autónoma”

La mayoría de avances en IA son altamente dependientes de la intervención humana: desde el diseño de arquitecturas hasta la supervisión de resultados y ajustes de parámetros (Mitchell, 2021; Broussard, 2018; Galanos et al., 2020). Los sistemas que aparentan autonomía operan bajo estrictos marcos de entrenamiento y optimización, lo que los vuelve ineficaces en entornos no estructurados o dinámicos. Leufer (2020) demuestra que muchas demostraciones virales sobre “robots inteligentes” están guionizadas o editadas, ocultando sus limitaciones reales. Esta falsa autonomía no solo alimenta el mito de la superioridad técnica, sino que también desplaza responsabilidades éticas y jurídicas a entidades que no pueden responder por sus actos (Crawford, 2021; Villarreal, 2024; UNESCO, 2023).

7. Mito 6: “La IA superará a la humanidad”

El discurso de la “singularidad” —según el cual la IA alcanzará y luego superará la inteligencia humana general— ha sido ampliamente promovido por gurús tecnológicos y medios de comunicación (Mitchell, 2021; Leufer, 2020; Broussard, 2018). Sin embargo, este escenario carece de fundamento científico sólido y responde más a intereses ideológicos que a proyecciones realistas. Crawford (2021) y Ganascia (2022) sostienen que esta visión futurista distrae la atención de los problemas actuales de la IA: sesgo, vigilancia masiva, exclusión digital, explotación laboral y daño ecológico. En lugar de una superinteligencia abstracta, lo que se necesita es una supervisión humana efectiva, una regulación ética y una ciudadanía empoderada que cuestione el uso y dirección de estas tecnologías.

8. Hacia una inteligencia artificial con ética y justicia

Superar los mitos de la IA implica más que una corrección técnica: requiere una transformación cultural y política (Villarreal, 2024; Crawford, 2021; UNESCO, 2023). América Latina, y en particular contextos como el peruano, debe apostar por una soberanía tecnológica que no se limite al consumo de plataformas extranjeras, sino que promueva la creación de soluciones locales, éticas y justas. La alfabetización digital crítica es un eje fundamental: no basta con saber usar herramientas digitales, hay que entender sus implicancias, cuestionar sus lógicas y reconfigurar sus objetivos. Este proceso exige participación comunitaria, reflexión académica interdisciplinaria y políticas públicas decididas a democratizar el futuro digital.


Referencias

Broussard, M. (2018). Artificial un-intelligence: How computers misunderstand the world. MIT Press.

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Galanos, V., Bennett, S. J., Aylett, R., & Hemment, D. (2020). AI myths debunked: Unpacking six common misconceptions. The New Real, 1(1), 79–83. https://doi.org/10.2218/newreal.9267

Ganascia, J.-G. (2022). Artificial intelligence: Between myth and reality. UNESCO Courier. https://courier.unesco.org/en/articles/artificial-intelligence-between-myth-and-reality

Giray, L. (2024). Ten myths about artificial intelligence in education. Higher Learning Research Communications, 14(2), 1–12. https://scholarworks.waldenu.edu/cgi/viewcontent.cgi?article=1508&context=hlrc

Leufer, D. (2020). Why we need to bust some myths about AI. Patterns, 1, 100124. https://doi.org/10.1016/j.patter.2020.100124

Mitchell, M. (2021). Why AI is harder than we think. arXiv. https://arxiv.org/abs/2104.12871

UNESCO. (2023). Ethics of Artificial Intelligence: Recommendation and implementation guidance. https://unesdoc.unesco.org/ark:/48223/pf0000382021

Villarreal, P. (2024). Inteligencia artificial. Ariel México



29 mayo 2025

Un Viaje Digital: De los Ábacos a la Web Moderna y el Internet de las Cosas

Aldo Hernán Zanabria Gálvez

Introducción

La historia de la computación y la interconexión digital es una narrativa de ingenio humano, colaboración y una búsqueda incesante por mejorar la forma en que procesamos información y nos comunicamos (Ceruzzi, 2003). Desde los rudimentarios instrumentos de cálculo hasta la vasta red global que hoy conocemos como Internet y la emergente era del Internet de las Cosas (IoT) (Ashton, 2009), cada avance ha sentado las bases para el siguiente, transformando radicalmente la sociedad, la economía y nuestra vida cotidiana. Este ensayo recorre los hitos fundamentales de esta evolución, explorando los fundamentos de las computadoras, el nacimiento y desarrollo de Internet y la Web, el funcionamiento interno de los navegadores y el impacto omnipresente de la conectividad.



Los Cimientos de la Computación: El Lenguaje de las Máquinas

La necesidad de calcular es tan antigua como la civilización misma. La evolución de los cálculos comenzó con herramientas simples como el ábaco, que durante siglos permitió realizar operaciones aritméticas complejas (Pullan, 1968; Ifrah, 2000). Con el tiempo, la idea de "computadoras humanas" –personas dedicadas a realizar cálculos extensos– se volvió común, especialmente en campos como la astronomía y la navegación (Grier, 2005). Sin embargo, la verdadera revolución comenzó con la mecanización del cálculo.

La evolución de las computadoras como máquinas físicas progresó desde dispositivos mecánicos y electromecánicos hasta las máquinas electrónicas basadas en válvulas de vacío, luego transistores y finalmente circuitos integrados (Stallings, 2016; Ceruzzi, 2003). Un concepto crucial en esta evolución fue el código máquina, el lenguaje fundamental que entienden las computadoras, compuesto por instrucciones binarias (Patterson & Hennessy, 2017). La interacción con estas primeras máquinas se realizaba a través de inputs y outputs rudimentarios, como tarjetas perforadas y teletipos, que permitían introducir datos y recibir resultados (Bashe et al., 1986).

El corazón del lenguaje de la computadora reside en el sistema binario (Petzold, 2000). La conversión de números decimales a binario es un proceso fundamental, ya que las computadoras operan con bits y bytes. Un bit, la unidad más pequeña de información, representa un 0 o un 1, estados que pueden ser implementados físicamente por transistores (encendido/apagado) (Petzold, 2000; Stallings, 2016). Un byte, compuesto generalmente por 8 bits, permite representar una mayor gama de información.

Para que las computadoras manejen información más allá de los números, se desarrollaron sistemas de codificación. El código ASCII (American Standard Code for Information Interchange) fue un hito, permitiendo la traducción de texto a binario (American Standards Association, 1963; Cerf, 1969, RFC 20). Cada carácter alfanumérico y símbolo de control se asignó a un número binario único. Sin embargo, ASCII era limitado para representar caracteres de todos los idiomas del mundo. Esto llevó a la introducción de Unicode, un estándar mucho más amplio que asigna un número único a cada carácter, independientemente de la plataforma, el programa o el idioma, revolucionando la comunicación digital global (The Unicode Consortium, 2023). Incluso la representación de colores RGB (Rojo, Verde, Azul) se convierte a código binario, donde la intensidad de cada componente de color se expresa numéricamente, permitiendo a las pantallas mostrar millones de tonalidades (Foley et al., 1990).

El Nacimiento y Desarrollo de Internet: Conectando el Mundo

Paralelamente a la evolución de las computadoras, surgía la necesidad de conectarlas. La historia de Internet tiene sus raíces en ARPANET, un proyecto de la Agencia de Proyectos de Investigación Avanzada (ARPA) del Departamento de Defensa de los Estados Unidos en 1969 (Abbate, 1999; Hafner & Lyon, 1996). Concebida como una red robusta y descentralizada, ARPANET fue pionera en tecnologías clave (Leiner et al., 2009).

La evolución de ARPANET condujo al surgimiento de los protocolos de Internet, un conjunto de reglas que estandarizan la comunicación entre diferentes redes y computadoras. El funcionamiento de los protocolos de comunicación en Internet, como TCP/IP (Transmission Control Protocol/Internet Protocol), es esencial (Cerf & Kahn, 1974; Comer, 2018). TCP se encarga de dividir los mensajes en paquetes, asegurar su entrega ordenada y sin errores, mientras que IP (Postel, 1981, RFC 791) se ocupa del direccionamiento y enrutamiento de estos paquetes a través de la red. La interacción de mensajes en las capas del protocolo de Internet (modelo OSI o TCP/IP) describe cómo los datos atraviesan diferentes niveles de abstracción, cada uno con funciones específicas, desde la capa física hasta la capa de aplicación (Zimmermann, 1980; Comer, 2018).

Con la expansión de la red, surgieron los proveedores de servicios de Internet (ISP), empresas que ofrecen acceso a Internet a usuarios finales y organizaciones (Greenstein, 2015). Para que la conectividad funcione, dos elementos son cruciales: las direcciones IP y el DNS (Domain Name System). Cada dispositivo conectado a Internet necesita una dirección IP única, un identificador numérico (Postel, 1981, RFC 791). El DNS actúa como una "agenda telefónica" de Internet, traduciendo nombres de dominio fáciles de recordar por humanos (como www.ejemplo.com) en las direcciones IP numéricas que las máquinas utilizan para localizarse (Mockapetris, 1987, RFC 1035).

La Creación y Evolución de la Web: Una Interfaz para Internet

Mientras Internet proporcionaba la infraestructura de red subyacente, la World Wide Web (WWW o Web) aportó una forma accesible y gráfica de navegar y compartir información. La historia y evolución de la Web está intrínsecamente ligada a Tim Berners-Lee, quien en 1989, mientras trabajaba en el CERN, propuso un sistema de hipertexto para compartir información entre científicos (Berners-Lee, 1989; Berners-Lee & Fischetti, 1999). Este sistema se basaba en tres tecnologías principales: HTML, URI (ahora URL) y HTTP.

La evolución de los navegadores web fue fundamental para la popularización de la Web. Desde el pionero Mosaic, que introdujo una interfaz gráfica amigable, hasta navegadores modernos como Chrome, Firefox y Safari, cada uno ha aportado innovaciones en velocidad, funcionalidad y cumplimiento de estándares (Segaller, 1998; Reid, 1997). Los estándares web, promovidos y desarrollados por organizaciones como el World Wide Web Consortium (W3C), son cruciales para garantizar la interoperabilidad y accesibilidad de los contenidos web en diferentes navegadores y dispositivos (World Wide Web Consortium, n.d.-a).

El protocolo HTTP (Hypertext Transfer Protocol) es el protocolo fundamental para la comunicación en la Web, definiendo cómo los mensajes son formateados y transmitidos, y qué acciones deben tomar los servidores web y los navegadores en respuesta a varios comandos (métodos HTTP como GET, POST, etc.) (Fielding et al., 1999, RFC 2616; IETF, 2022, RFC 9112). La seguridad en Internet es una preocupación primordial, y aquí radica la diferencia entre HTTP y HTTPS (HTTP Secure). HTTPS encripta la comunicación entre el navegador y el servidor web utilizando SSL/TLS, protegiendo la información sensible de interceptaciones (Rescorla, 2000; Dierks & Rescorla, 2008, RFC 5246).

Los motores de navegadores (como Blink en Chrome, Gecko en Firefox, WebKit en Safari) son el software central que interpreta el código web y lo transforma en la página visual que vemos (Mozilla, n.d.-a; The Chromium Projects, n.d.). Estos motores deben adherirse a los estándares web para un renderizado consistente. Los fundamentos de HTML (HyperText Markup Language), CSS (Cascading Style Sheets) y JavaScript son los pilares del desarrollo web (W3C, 2021; W3C, 2023; Flanagan, 2020). HTML estructura el contenido, CSS define su presentación y estilo visual, y JavaScript añade interactividad y comportamiento dinámico.

Más recientemente, WebAssembly (Wasm) ha surgido como un nuevo estándar web. Es un formato de instrucción binaria para un ejecutable portable que permite ejecutar código escrito en lenguajes de alto nivel (como C++, Rust) en la web a velocidades cercanas a las nativas, abriendo nuevas posibilidades para aplicaciones web complejas y de alto rendimiento (Haas et al., 2017; World Wide Web Consortium, 2019). El diseño web multiplataforma, con enfoques como "Mobile First" (Wroblewski, 2011), se ha vuelto esencial, reconociendo la primacía de los dispositivos móviles y la necesidad de que los sitios web se adapten y funcionen fluidamente en una variedad de tamaños de pantalla y capacidades.

El Funcionamiento Interno del Navegador: Del Código a la Pantalla

Comprender cómo funciona el navegador implica conocer el Critical Render Path (CRP), la secuencia de pasos que el navegador sigue para convertir HTML, CSS y JavaScript en píxeles en la pantalla (Google Developers, n.d.; Garsiel, 2011). Este proceso comienza con el análisis del HTML para construir el Document Object Model (DOM). El DOM es una representación en árbol de la estructura del documento HTML, donde cada etiqueta se convierte en un nodo (World Wide Web Consortium, 2024).

Simultáneamente, el navegador procesa el CSS para construir el CSS Object Model (CSSOM) o Modelo de Objetos CSS (World Wide Web Consortium, 2022). Este modelo interpreta las reglas de estilo y genera un árbol de estilos que mapea los estilos a los nodos del DOM correspondientes. Una vez que se tienen el DOM y el CSSOM, se combinan para crear el árbol de renderizado (Render Tree). Este árbol contiene solo los nodos visibles que se mostrarán en la página (Garsiel, 2011).

El siguiente paso es la generación de Layout (o Reflow), donde el navegador calcula las dimensiones y posiciones exactas de cada elemento en la pantalla. Finalmente, ocurre el renderizado y estilización de páginas web (Painting o Rasterizing), donde el navegador "pinta" los píxeles en la pantalla, aplicando los estilos calculados a cada elemento del layout (Garsiel, 2011). La interpretación de JavaScript por el navegador también es crucial. El motor de JavaScript del navegador (e.g., V8, SpiderMonkey) ejecuta el código, que puede manipular el DOM y el CSSOM, desencadenando potencialmente nuevos cálculos de layout y repintados, lo que permite páginas web dinámicas e interactivas (Google, n.d.; Mozilla, n.d.-b).

El Futuro Conectado: El Internet de las Cosas

La evolución no se detiene. El Internet de las Cosas (IoT) representa la interconexión de objetos cotidianos –desde electrodomésticos y vehículos hasta sensores industriales y dispositivos médicos– a Internet (Ashton, 2009). Estos dispositivos recopilan y comparten datos, permitiendo nuevas formas de automatización, eficiencia y servicios (Gubbi et al., 2013). El impacto del IoT en la vida cotidiana ya es tangible, con hogares inteligentes, ciudades inteligentes y avances en la atención médica y la industria (Madakam et al., 2015), aunque también plantea nuevos desafíos en términos de seguridad y privacidad.

Conclusión

Desde los primeros intentos de mecanizar el cálculo hasta la intrincada red global que define la era moderna, la historia de la computación, Internet y la Web es un testimonio del poder de la innovación (Ceruzzi, 2003; Abbate, 1999). Los conceptos de código binario, protocolos de comunicación, lenguajes de marcado y programación, y los complejos procesos de renderizado en los navegadores, son los pilares sobre los que se construye nuestro mundo digital. A medida que avanzamos hacia un futuro cada vez más conectado, con el auge del Internet de las Cosas y tecnologías emergentes (Gubbi et al., 2013), la comprensión de estos fundamentos se vuelve aún más crucial para navegar y dar forma al panorama tecnológico que nos rodea. La evolución continúa, y con ella, las posibilidades de lo que podemos lograr a través de la tecnología.

Referencias

Abbate, J. (1999). Inventing the Internet. MIT Press.

American Standards Association (ASA). (1963). American Standard Code for Information Interchange, ASA X3.4-1963. ASA.

Ashton, K. (2009). That 'Internet of Things' Thing. RFiD Journal, 22(7), 97-114.

Bashe, C. J., Johnson, L. R., Palmer, J. H., & Pugh, E. W. (1986). IBM's Early Computers. MIT Press.

Berners-Lee, T. (1989). Information Management: A Proposal. CERN. Recuperado de https://www.w3.org/History/1989/proposal.html

Berners-Lee, T., & Fischetti, M. (1999). Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web by its Inventor. HarperCollins.

Cerf, V. G. (1969). ASCII format for Network Interchange (RFC 20). Internet Engineering Task Force. https://doi.org/10.17487/RFC0020

Cerf, V. G., & Kahn, R. E. (1974). A Protocol for Packet Network Intercommunication. IEEE Transactions on Communications, COM-22(5), 637–648. https://doi.org/10.1109/TCOM.1974.1092259

Ceruzzi, P. E. (2003). A History of Modern Computing (2ª ed.). MIT Press.

Comer, D. E. (2018). Internetworking with TCP/IP Vol.1: Principles, Protocols, and Architecture (6ª ed.). Pearson.

Dierks, T., & Rescorla, E. (2008). The Transport Layer Security (TLS) Protocol Version 1.2 (RFC 5246). Internet Engineering Task Force. https://doi.org/10.17487/RFC5246

Fielding, R., Gettys, J., Mogul, J., Frystyk, H., Masinter, L., Leach, P., & Berners-Lee, T. (1999). Hypertext Transfer Protocol -- HTTP/1.1 (RFC 2616). Internet Engineering Task Force. https://doi.org/10.17487/RFC2616 (Obsoleto, ver RFC 9112)

Flanagan, D. (2020). JavaScript: The Definitive Guide (7ª ed.). O'Reilly.

Foley, J. D., Van Dam, A., Feiner, S. K., & Hughes, J. F. (1990). Computer Graphics: Principles and Practice. Addison-Wesley.

Garsiel, T. (2011). How Browsers Work: Behind the scenes of modern web browsers. HTML5 Rocks. Recuperado de https://www.html5rocks.com/en/tutorials/internals/howbrowserswork/

Google. (s.f.). V8 JavaScript Engine. Recuperado el 28 de mayo de 2024, de https://v8.dev/

Google Developers. (s.f.). Critical rendering path. MDN Web Docs. Recuperado el 28 de mayo de 2024, de https://developer.mozilla.org/en-US/docs/Web/Performance/Critical_rendering_path

Greenstein, S. (2015). How the Internet Became Commercial: Innovation, Privatization, and the Birth of a New Network. Princeton University Press.

Grier, D. A. (2005). When Computers Were Human. Princeton University Press.

Gubbi, J., Buyya, R., Marusic, S., & Palaniswami, M. (2013). Internet of Things (IoT): A vision, architectural elements, and future directions. Future Generation Computer Systems, 29(7), 1645-1660. https://doi.org/10.1016/j.future.2013.01.010

Haas, A., Rossberg, A., Schuff, D. L., Titzer, B. L., Holman, M., Gohman, D., ... & Wagner, L. (2017). Bringing the web up to speed with WebAssembly. Proceedings of the 38th ACM SIGPLAN Conference on Programming Language Design and Implementation (PLDI), 185-200. https://doi.org/10.1145/3062341.3062363

Hafner, K., & Lyon, M. (1996). Where Wizards Stay Up Late: The Origins of the Internet. Simon & Schuster.

Ifrah, G. (2000). The Universal History of Numbers: From Prehistory to the Invention of the Computer. John Wiley & Sons.

Internet Engineering Task Force (IETF). (2022). HTTP/1.1 (RFC 9112). https://doi.org/10.17487/RFC9112

Leiner, B. M., Cerf, V. G., Clark, D. D., Kahn, R. E., Kleinrock, L., Lynch, D. C., Postel, J., Roberts, L. G., & Wolff, S. (2009). A brief history of the Internet. ACM SIGCOMM Computer Communication Review, 39(5), 22–31. https://doi.org/10.1145/1629607.1629613

Madakam, S., Ramaswamy, R., & Tripathi, S. (2015). Internet of Things (IoT): A literature review. Journal of Computer and Communications, 3(5), 164-173. https://doi.org/10.4236/jcc.2015.35021

Mockapetris, P. (1987). Domain names - implementation and specification (RFC 1035). Internet Engineering Task Force. https://doi.org/10.17487/RFC1035

Mozilla. (s.f.-a). Gecko. MDN Web Docs. Recuperado el 28 de mayo de 2024, de https://developer.mozilla.org/en-US/docs/Mozilla/Gecko

Mozilla. (s.f.-b). SpiderMonkey (JavaScript-C Engine). MDN Web Docs. Recuperado el 28 de mayo de 2024, de https://developer.mozilla.org/en-US/docs/Mozilla/Projects/SpiderMonkey

Patterson, D. A., & Hennessy, J. L. (2017). Computer Organization and Design: The Hardware/Software Interface (5ª ed.). Morgan Kaufmann.

Petzold, C. (2000). Code: The Hidden Language of Computer Hardware and Software. Microsoft Press.

Postel, J. (Ed.). (1981). Internet Protocol (RFC 791). Internet Engineering Task Force. https://doi.org/10.17487/RFC0791

Pullan, J. M. (1968). The History of the Abacus. Hutchinson.

Reid, R. H. (1997). Architects of the Web: 1,000 Days that Built the Future of Business. John Wiley & Sons.

Rescorla, E. (2000). SSL and TLS: Designing and Building Secure Systems. Addison-Wesley.

Segaller, S. (1998). Nerds 2.0.1: A Brief History of the Internet. TV Books.

Stallings, W. (2016). Computer Organization and Architecture: Designing for Performance (10ª ed.). Pearson Education.

The Chromium Projects. (s.f.). Blink. Recuperado el 28 de mayo de 2024, de https://www.chromium.org/blink/

The Unicode Consortium. (2023). The Unicode Standard (Version 15.1.0). Recuperado de https://www.unicode.org/versions/Unicode15.1.0/

World Wide Web Consortium (W3C). (s.f.-a). About W3C. Recuperado el 28 de mayo de 2024, de https://www.w3.org/Consortium/

World Wide Web Consortium (W3C). (2019). WebAssembly Core Specification. W3C Recommendation. Recuperado de https://www.w3.org/TR/wasm-core-1/

World Wide Web Consortium (W3C). (2021). HTML Living Standard. WHATWG. Recuperado de https://html.spec.whatwg.org/multipage/

World Wide Web Consortium (W3C). (2022). CSS Object Model (CSSOM). W3C Working Draft. Recuperado de https://www.w3.org/TR/cssom-1/

World Wide Web Consortium (W3C). (2023). CSS Snapshot 2023. W3C Recommendation. Recuperado de https://www.w3.org/TR/css-2023/

World Wide Web Consortium (W3C). (2024). DOM Standard. WHATWG. Recuperado de https://dom.spec.whatwg.org/

Wroblewski, L. (2011). Mobile First. A Book Apart.

Zimmermann, H. (1980). OSI Reference Model—The ISO Model of Architecture for Open Systems Interconnection. IEEE Transactions on Communications, 28(4), 425-432. https://doi.org/10.1109/TCOM.1980.1094702