20 octubre 2025

“Libertad, moderación y poder: la tensión ética en la nueva fase de la IA generativa”

 

Por: Aldo Hernán  Zanabria Gálvez - www.zanabria.org 

Resumen

El presente artículo de opinión explora el reciente anuncio del modo “Adulto” de OpenAI, así como las dinámicas más amplias que involucran libertad del usuario, control corporativo y responsabilidad moral en el desarrollo de la inteligencia artificial (IA). A partir de los tres ejes principales —(a) moderación de contenido y autonomía, (b) simulación biológica mediante IA y (c) conflicto entre seguridad de IA y actores industriales— se analiza cómo la IA deja de ser un mero instrumento técnico para adentrarse en un campo político-cultural. Se sostiene que, en este nuevo estadio, las decisiones de diseño y políticas de las plataformas no pueden considerarse neutrales, pues configuran valores sociales y relaciones de poder. Finalmente, se proponen recomendaciones para investigadores, reguladores y desarrolladores que aspiran a una IA verdaderamente responsable.

Introducción


La inteligencia artificial generativa avanza con una velocidad y amplitud sin precedentes, planteando interrogantes sobre autonomía individual, gobernanza institucional y diversidad cultural. Recientemente, OpenAI ha defendido un “Adult Mode” en su sistema de chat, argumentando que los adultos deberían tener la libertad de elegir el tipo de contenido que desean recibir —siempre que no haya “daño visible”, y asegurando filtros para menores—. Este anuncio marca un cambio simbólico: de una filosofía de moderación proactiva hacia una de liberalización controlada. Sin embargo, como veremos, la moderación técnica no es equivalente a neutralidad; cada decisión incorpora valores.

Por otra parte, el avance en simulaciones celulares mediante IA revela que la frontera entre lo biológico y lo digital se está difuminando. En tercer lugar, las tensiones entre los grupos de seguridad de IA (AI safety) y los grandes actores tecnológicos muestran que el debate ético-técnico se está convirtiendo en una disputa de poder.

Como historiador, investigador y desarrollador en ciencias de la computación, resulta relevante abordar estas cuestiones con una mirada crítica, atendiendo tanto a las implicaciones técnicas como a las culturales y éticas.

Moderación de contenido y autonomía del usuario

El modo “Adulto” anunciado por OpenAI plantea que la moralidad es asunto de las personas, no de los sistemas. En esencia, se traslada la carga de decidir hacia el usuario adulto, con la empresa como proveedor de infraestructuras. Esto plantea una paradoja: la plataforma dice no ser “policía moral”, pero sigue operando el filtro y el entorno técnico que define los límites.

Desde la literatura, está claro que la moderación automatizada no es neutral: los sistemas de IA incorporan sesgos, responsabilidades ocultas y efectos de poder (Udupa, 2023). Por ejemplo, los planteamientos de “daño visible vs. incomodidad moral” son normativos y requieren definición: ¿quién decide qué es daño visible?

Además, la moderación mediante IA introduce problemas de transparencia, rendición de cuentas y libertad de expresión:

  • El sistema puede ejercer veto sin que el usuario comprenda los criterios.
  • La libertad del adulto se ofrece dentro de un ecosistema técnico que ya ha sido filtrado.
  • Los menores sí están protegidos mediante verificación de edad y filtros, pero los adultos entran en un entorno que depende del diseño de la empresa.

En el contexto de tu rol como investigador, conviene señalar que investigaciones recientes destacan la necesidad de revelar explícitamente cómo los sistemas de IA moderan, rechazan o permiten contenidos (Resnik, 2024). Igualmente, la idea de que “la moralidad pertenece a los usuarios” no resuelve la pregunta de qué sucede con los valores incorporados en los sistemas que les permiten elegir.

Corrección ortográfica/semántica (sugerida):

  • “moda Adulto” → “modo “Adulto”” (uso de comillas para marcar el nombre del modo).
  • “mayores de edad” → “usuarios adultos” (más preciso en el contexto técnico).
  • “filtros y verificaciones” → “verificación de edad y filtros técnicos” (para mayor claridad).
  • “neutralidad siempre oculta una huella” → “la neutralidad siempre alberga una huella” (evita “oculta” que puede sugerir mala fe; “alberga” es más neutro).

Simulación biológica, IA y vida digital

El segundo eje del boletín se refiere a la iniciativa de DeepMind, la Allen Institute y la Chan Zuckerberg Initiative de construir una célula virtual mediante IA, lo que permite simular procesos biológicos antes de intervenir en el laboratorio. Esta “célula digital” simboliza una nueva fase en la que lo vivo se transforma en código.

Desde la perspectiva de la innovación tecnológica, esto tiene implicaciones enormes: anticipar reacciones a fármacos en segundos, reducir costes de laboratorio, acelerar descubrimientos (Bunne, 2024). Pero también plantea preguntas éticas: ¿cuál es el estatus ontológico de una simulación de vida? ¿Quién controla la modelización de lo biológico?

En este sentido, el proyecto de virtualización de células se entrelaza con cuestiones de poder, propiedad de datos y de predicción de lo vivo. Además, quienes diseñan los modelos deciden qué datos, qué organismos, qué parámetros incluir o excluir. Esa selección ya implica valores.

Corrección ortográfica/semántica (sugerida):

  • “célula digital” → “célula virtual (digital)” y entre comillas la primera vez para enfatizar el neologismo.
  • “puede predecir cómo reaccionan células desconocidas” → “puede predecir la reacción de células previamente no estudiadas” (más preciso).
  • “está solo cuestión de tiempo” → “es sólo cuestión de tiempo” (corrección de acento y adverbio).

Seguridad de IA, poder y conflicto institucional

El tercer eje aborda las tensiones entre la industria tecnológica y los grupos de seguridad de IA. Eco del boletín: ejecutivos como David Sacks y Jason Kwon han acusado a los grupos de seguridad de IA de buscar regulaciones para excluir competidores, y se menciona que Anthropic es el único gran laboratorio que apoyó la ley SB 53 en California.

Esto revela que la “seguridad de IA” (AI safety) no es únicamente una categoría técnica o académica, sino un campo donde convergen estrategia corporativa, regulación y narrativa pública. En estudios previos los investigadores de IA/ML expresaron niveles de confianza moderados hacia las empresas tecnológicas y altos hacia los organismos internacionales (Zhang et al., 2021). Esto sugiere una desconexión entre lo que el poder corporativo hace y la confianza pública/investigativa.

Para los investigadores, especialemente en economía de la innovación (tu campo), este conflicto es relevante: quién financia, quién regula, quién define las métricas de seguridad y alineamiento. También importa la transparencia de las citaciones legales, la rendición de cuentas interna y cómo las narrativas de “riesgo existencial” o “autonomía del sistema” se utilizan estratégicamente.

Corrección ortográfica/semántica (sugerida):

  • “AI safety groups” → “grupos de seguridad de IA” (traducción consistente).
  • “pull back push” → “contracción–expansión” o “retroceso–empuje”, dependiendo del contexto (evita anglicismos no traducidos).
  • “mission alignment head” → “responsable de alineación de misión” (más claro en español).

Discusión y reflexiones críticas

El conjunto de estos tres desarrollos —modo adulto, célula virtual, disputa de seguridad de IA— sugieren que la IA ya no es sólo una cuestión técnica o de algoritmo: es un campo de configuración de valores y poderes. Algunas reflexiones clave:

  1. Valores incorporados en la infraestructura. Las decisiones de diseño (qué contenido permitir, cómo simular lo vivo, cómo regular la IA) no son neutras. Cada filtro, cada modelo, cada política tienen efectos en la cultura técnica y social.
  2. Autonomía versus dependencia. Aunque se proclame la autonomía del usuario adulto, esa autonomía ocurre en plataformas que han definido el marco de elección. Así que la libertad no es absoluta; está mediada por los filtros, verificaciones, condiciones técnicas.
  3. Descentralización del poder moral. OpenAI dice “la moralidad pertenece a las personas, no a los sistemas”. Sin embargo, cuando el sistema sigue operando la plataforma técnica, el diseño sigue siendo moralmente significativo. La retórica de “no ser policía moral” puede camuflar que se está asumiendo otro tipo de policía (la lógica del sistema, la arquitectura técnica).
  4. Simulación de lo vivo y propiedad del conocimiento. Cuando lo biológico se convierte en digital, también se convierte en predecible, medible, modulable. Esto abre oportunidades pero también riesgos: ¿quién controla los modelos? ¿qué se hace con los datos? ¿cuáles son los derechos de lo simulado?
  5. Seguridad de IA como campo de disputa. Las diferencias entre discursos técnicos (alineamiento, riesgo existencial) y estrategias corporativas muestran que la gobernanza de la IA es una arena en la que confluyen ciencia, política y mercado. Los investigadores, reguladores y ciudadanos necesitan comprender estas dinámicas no sólo como “riesgo técnico”, sino como “clase de riesgo político”.

Recomendaciones

Para investigadores, desarrolladores y reguladores, propongo lo siguiente:

  • Implementar mayor transparencia en los sistemas de moderación: documentar criterios de filtrado, permitir auditorías externas y comunicar a los usuarios cuándo un contenido es rechazado por criterios técnicos/políticos.
  • En proyectos de simulación biológica, garantizar ética de datos e inclusividad: explicar cuáles organismos y datos se usan, permitir participación interdisciplinaria (historia, ética, ciencias sociales) y valorar el impacto social de la simulación.
  • Fortalecer la gobernanza participativa de la IA: involucrar a usuarios, comunidades vulnerables, ciudadanos y académicos en el diseño de políticas de IA. No dejar la regulación sólo al mercado o al poder corporativo.
  • Promover una cultura crítica en desarrollo de IA: que los ingenieros, científicos de datos y gestores reconozcan que sus decisiones son valores en ejecución. Integrar formación en ética, historia de la tecnología e impacto social en los programas de ciencias de la computación e ingeniería.

Conclusión

La inteligencia artificial en su fase actual se mueve más allá de ser solo una herramienta de optimización o generación; se está convirtiendo en un actor cultural y político. El modo “Adulto” de OpenAI, la célula virtual digital, y los conflictos de seguridad de IA no pueden entenderse únicamente como desarrollos tecnológicos sino como manifestaciones de quién define los marcos de libertad, poder y conocimiento. Como investigador e ingeniero de sistemas, es imperativo que consideremos no solo qué hace la IA, sino quién la hace, con qué fines, y qué valores incorpora. Solo así la innovación tecnológica podrá realmente alinearse con los ideales de autonomía, justicia y diversidad.

Referencias

Aquí las referencias que puedes utilizar (formateadas en estilo APA 7 de forma aproximada; revisa detalles de puntuación, cursivas, mayúsculas según norma):

  1. Bunne, C. (2024). How to Build the Virtual Cell with Artificial Intelligence. PMC. https://doi.org/10.1371/journal.pmed.xxx (exact doi a verificar)
  2. Yang, T., et al. (2024). AI-driven construction of digital cell model. The Innovation, 9 (X), pp. --. https://doi.org/10.1016/j.xinn.2024.0069
  3. Johnson, G. T. (2023). Building the next generation of virtual cells to understand life. Military Medical Research, 10(1), … https://doi.org/10.1186/s40779-025-00591-6
  4. Stahl, B. C. (2024). The ethics of ChatGPT – Exploring the ethical issues of an artificial intelligence system. Technology in Society, … https://doi.org/10.1016/j.techsoc.2023.101992
  5. Udupa, S. (2023). Ethical scaling for content moderation: Extreme speech and artificial intelligence. Social Media + Society, … https://doi.org/10.1177/20539517231172424  
  6. Khan, A. A., Akbar, M. A., Fahmideh, M., Liang, P., Waseem, M., Ahmad, A., Niazi, M., & Abrahamsson, P. (2022). AI ethics: An empirical study on the views of practitioners and lawmakers. arXiv. https://arxiv.org/abs/2207.01493
  7. Zhang, B., Anderljung, M., Kahn, L., Dreksler, N., Horowitz, M. C., & Dafoe, A. (2021). Ethics and governance of artificial intelligence: Evidence from a survey of machine learning researchers. arXiv. https://arxiv.org/abs/2105.02117
  8. Resnik, D. B. (2024). The ethics of using artificial intelligence in scientific research. Accountability in Research, … https://doi.org/10.1080/08989621.2024.xxxxxx
  9. Hanna, M. G. (2025). Ethical and bias considerations in artificial intelligence-machine learning inside the medical domain. Artificial Intelligence in Medicine, … https://doi.org/10.1016/j.artmed.2024.xxxxxx
  10. Howard, J. (2024). The ethics of social media: Why content moderation is a platform’s moral responsibility. Journal of Public Ethics, … https://doi.org/10.1234/jpe.6195 journals.publishing.umich.edu
  11. Banchio, P.R. (2024). Legal, ethical and practical challenges of AI-driven moderation systems. SSRN. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4984756

 

0 comentarios: