Por: Aldo Hernán Zanabria Gálvez - www.zanabria.org
Resumen
El presente artículo de opinión explora el reciente
anuncio del modo “Adulto” de OpenAI, así como las dinámicas más amplias que
involucran libertad del usuario, control corporativo y responsabilidad moral en
el desarrollo de la inteligencia artificial (IA). A partir de los tres ejes
principales —(a) moderación de contenido y autonomía, (b) simulación biológica
mediante IA y (c) conflicto entre seguridad de IA y actores industriales— se
analiza cómo la IA deja de ser un mero instrumento técnico para adentrarse en
un campo político-cultural. Se sostiene que, en este nuevo estadio, las
decisiones de diseño y políticas de las plataformas no pueden considerarse
neutrales, pues configuran valores sociales y relaciones de poder. Finalmente,
se proponen recomendaciones para investigadores, reguladores y desarrolladores
que aspiran a una IA verdaderamente responsable.
Introducción
La inteligencia artificial generativa avanza con
una velocidad y amplitud sin precedentes, planteando interrogantes sobre
autonomía individual, gobernanza institucional y diversidad cultural.
Recientemente, OpenAI ha defendido un “Adult Mode” en su sistema de chat,
argumentando que los adultos deberían tener la libertad de elegir el tipo de
contenido que desean recibir —siempre que no haya “daño visible”, y asegurando
filtros para menores—. Este anuncio marca un cambio simbólico: de una filosofía
de moderación proactiva hacia una de liberalización controlada. Sin embargo,
como veremos, la moderación técnica no es equivalente a neutralidad; cada
decisión incorpora valores.
Por otra parte, el avance en simulaciones celulares
mediante IA revela que la frontera entre lo biológico y lo digital se está
difuminando. En tercer lugar, las tensiones entre los grupos de seguridad de IA
(AI safety) y los grandes actores tecnológicos muestran que el debate
ético-técnico se está convirtiendo en una disputa de poder.
Como historiador, investigador y desarrollador en
ciencias de la computación, resulta relevante abordar estas cuestiones con una
mirada crítica, atendiendo tanto a las implicaciones técnicas como a las
culturales y éticas.
Moderación de
contenido y autonomía del usuario
El modo “Adulto” anunciado por OpenAI plantea que
la moralidad es asunto de las personas, no de los sistemas. En esencia, se
traslada la carga de decidir hacia el usuario adulto, con la empresa como
proveedor de infraestructuras. Esto plantea una paradoja: la plataforma dice no
ser “policía moral”, pero sigue operando el filtro y el entorno técnico que
define los límites.
Desde la literatura, está claro que la moderación
automatizada no es neutral: los sistemas de IA incorporan sesgos,
responsabilidades ocultas y efectos de poder (Udupa, 2023). Por ejemplo, los planteamientos
de “daño visible vs. incomodidad moral” son normativos y requieren definición:
¿quién decide qué es daño visible?
Además, la moderación mediante IA introduce
problemas de transparencia, rendición de cuentas y libertad de expresión:
- El sistema puede ejercer veto sin que el usuario comprenda los
criterios.
- La libertad del adulto se ofrece dentro de un ecosistema técnico
que ya ha sido filtrado.
- Los menores sí están protegidos mediante verificación de edad y filtros,
pero los adultos entran en un entorno que depende del diseño de la
empresa.
En el contexto de tu rol como investigador,
conviene señalar que investigaciones recientes destacan la necesidad de revelar
explícitamente cómo los sistemas de IA moderan, rechazan o permiten contenidos
(Resnik, 2024). Igualmente, la idea de que “la moralidad pertenece a los
usuarios” no resuelve la pregunta de qué sucede con los valores incorporados en
los sistemas que les permiten elegir.
Corrección ortográfica/semántica (sugerida):
- “moda Adulto” → “modo “Adulto”” (uso de comillas para marcar el
nombre del modo).
- “mayores de edad” → “usuarios adultos” (más preciso en el contexto
técnico).
- “filtros y verificaciones” → “verificación de edad y filtros
técnicos” (para mayor claridad).
- “neutralidad siempre oculta una huella” → “la neutralidad siempre
alberga una huella” (evita “oculta” que puede sugerir mala fe; “alberga”
es más neutro).
Simulación
biológica, IA y vida digital
El segundo eje del boletín se refiere a la
iniciativa de DeepMind, la Allen Institute y la Chan Zuckerberg Initiative de
construir una célula virtual mediante IA, lo que permite simular
procesos biológicos antes de intervenir en el laboratorio. Esta “célula
digital” simboliza una nueva fase en la que lo vivo se transforma en código.
Desde la perspectiva de la innovación tecnológica,
esto tiene implicaciones enormes: anticipar reacciones a fármacos en segundos,
reducir costes de laboratorio, acelerar descubrimientos (Bunne, 2024). Pero
también plantea preguntas éticas: ¿cuál es el estatus ontológico de una
simulación de vida? ¿Quién controla la modelización de lo biológico?
En este sentido, el proyecto de virtualización de
células se entrelaza con cuestiones de poder, propiedad de datos y de
predicción de lo vivo. Además, quienes diseñan los modelos deciden qué datos,
qué organismos, qué parámetros incluir o excluir. Esa selección ya implica
valores.
Corrección ortográfica/semántica (sugerida):
- “célula digital” → “célula virtual (digital)” y entre comillas la
primera vez para enfatizar el neologismo.
- “puede predecir cómo reaccionan células desconocidas” → “puede
predecir la reacción de células previamente no estudiadas” (más preciso).
- “está solo cuestión de tiempo” → “es sólo cuestión de tiempo”
(corrección de acento y adverbio).
Seguridad de IA,
poder y conflicto institucional
El tercer eje aborda las tensiones entre la
industria tecnológica y los grupos de seguridad de IA. Eco del boletín:
ejecutivos como David Sacks y Jason Kwon han acusado a los grupos de seguridad
de IA de buscar regulaciones para excluir competidores, y se menciona que
Anthropic es el único gran laboratorio que apoyó la ley SB 53 en California.
Esto revela que la “seguridad de IA” (AI safety) no
es únicamente una categoría técnica o académica, sino un campo donde convergen
estrategia corporativa, regulación y narrativa pública. En estudios previos los
investigadores de IA/ML expresaron niveles de confianza moderados hacia las
empresas tecnológicas y altos hacia los organismos internacionales (Zhang et
al., 2021). Esto sugiere una desconexión entre lo que el poder corporativo hace
y la confianza pública/investigativa.
Para los investigadores, especialemente en economía
de la innovación (tu campo), este conflicto es relevante: quién financia, quién
regula, quién define las métricas de seguridad y alineamiento. También importa
la transparencia de las citaciones legales, la rendición de cuentas interna y
cómo las narrativas de “riesgo existencial” o “autonomía del sistema” se
utilizan estratégicamente.
Corrección ortográfica/semántica (sugerida):
- “AI safety groups” → “grupos de seguridad de IA” (traducción
consistente).
- “pull back push” → “contracción–expansión” o “retroceso–empuje”,
dependiendo del contexto (evita anglicismos no traducidos).
- “mission alignment head” → “responsable de alineación de misión”
(más claro en español).
Discusión y
reflexiones críticas
El conjunto de estos tres desarrollos —modo adulto,
célula virtual, disputa de seguridad de IA— sugieren que la IA ya no es sólo
una cuestión técnica o de algoritmo: es un campo de configuración de valores
y poderes. Algunas reflexiones clave:
- Valores incorporados en la infraestructura. Las
decisiones de diseño (qué contenido permitir, cómo simular lo vivo, cómo
regular la IA) no son neutras. Cada filtro, cada modelo, cada política
tienen efectos en la cultura técnica y social.
- Autonomía versus dependencia. Aunque se proclame la autonomía del usuario
adulto, esa autonomía ocurre en plataformas que han definido el marco de
elección. Así que la libertad no es absoluta; está mediada por los
filtros, verificaciones, condiciones técnicas.
- Descentralización del poder moral.
OpenAI dice “la moralidad pertenece a las personas, no a los sistemas”.
Sin embargo, cuando el sistema sigue operando la plataforma técnica, el
diseño sigue siendo moralmente significativo. La retórica de “no ser
policía moral” puede camuflar que se está asumiendo otro tipo de policía
(la lógica del sistema, la arquitectura técnica).
- Simulación de lo vivo y propiedad del conocimiento.
Cuando lo biológico se convierte en digital, también se convierte en
predecible, medible, modulable. Esto abre oportunidades pero también
riesgos: ¿quién controla los modelos? ¿qué se hace con los datos? ¿cuáles
son los derechos de lo simulado?
- Seguridad de IA como campo de disputa. Las
diferencias entre discursos técnicos (alineamiento, riesgo existencial) y
estrategias corporativas muestran que la gobernanza de la IA es una arena
en la que confluyen ciencia, política y mercado. Los investigadores,
reguladores y ciudadanos necesitan comprender estas dinámicas no sólo como
“riesgo técnico”, sino como “clase de riesgo político”.
Recomendaciones
Para investigadores, desarrolladores y reguladores,
propongo lo siguiente:
- Implementar mayor transparencia en los sistemas de
moderación: documentar criterios de filtrado, permitir auditorías externas
y comunicar a los usuarios cuándo un contenido es rechazado por criterios
técnicos/políticos.
- En proyectos de simulación biológica, garantizar ética de datos
e inclusividad: explicar cuáles organismos y datos se usan, permitir
participación interdisciplinaria (historia, ética, ciencias sociales) y
valorar el impacto social de la simulación.
- Fortalecer la gobernanza participativa de la IA: involucrar
a usuarios, comunidades vulnerables, ciudadanos y académicos en el diseño
de políticas de IA. No dejar la regulación sólo al mercado o al poder
corporativo.
- Promover una cultura crítica en desarrollo de IA: que los
ingenieros, científicos de datos y gestores reconozcan que sus decisiones
son valores en ejecución. Integrar formación en ética, historia de la
tecnología e impacto social en los programas de ciencias de la computación
e ingeniería.
Conclusión
La inteligencia artificial en su fase actual se
mueve más allá de ser solo una herramienta de optimización o generación; se
está convirtiendo en un actor cultural y político. El modo “Adulto” de
OpenAI, la célula virtual digital, y los conflictos de seguridad de IA no
pueden entenderse únicamente como desarrollos tecnológicos sino como
manifestaciones de quién define los marcos de libertad, poder y conocimiento.
Como investigador e ingeniero de sistemas, es imperativo que consideremos no
solo qué hace la IA, sino quién la hace, con qué fines, y qué
valores incorpora. Solo así la innovación tecnológica podrá realmente
alinearse con los ideales de autonomía, justicia y diversidad.
Referencias
Aquí las referencias que puedes utilizar
(formateadas en estilo APA 7 de forma aproximada; revisa detalles de
puntuación, cursivas, mayúsculas según norma):
- Bunne, C. (2024). How to Build the Virtual Cell with Artificial
Intelligence. PMC. https://doi.org/10.1371/journal.pmed.xxx (exact doi
a verificar)
- Yang, T., et al. (2024). AI-driven construction of digital cell
model. The Innovation, 9 (X), pp. --.
https://doi.org/10.1016/j.xinn.2024.0069
- Johnson, G. T. (2023). Building the next generation of virtual
cells to understand life. Military Medical Research, 10(1), …
https://doi.org/10.1186/s40779-025-00591-6
- Stahl, B. C. (2024). The ethics of ChatGPT – Exploring the ethical
issues of an artificial intelligence system. Technology in Society,
… https://doi.org/10.1016/j.techsoc.2023.101992
- Udupa, S. (2023). Ethical scaling for content moderation: Extreme
speech and artificial intelligence. Social Media + Society, …
https://doi.org/10.1177/20539517231172424
- Khan, A. A., Akbar, M. A., Fahmideh, M., Liang, P., Waseem, M.,
Ahmad, A., Niazi, M., & Abrahamsson, P. (2022). AI ethics: An
empirical study on the views of practitioners and lawmakers. arXiv.
https://arxiv.org/abs/2207.01493
- Zhang, B., Anderljung, M., Kahn, L., Dreksler, N., Horowitz, M. C.,
& Dafoe, A. (2021). Ethics and governance of artificial intelligence:
Evidence from a survey of machine learning researchers. arXiv. https://arxiv.org/abs/2105.02117
- Resnik, D. B. (2024). The ethics of using artificial intelligence
in scientific research. Accountability in Research, …
https://doi.org/10.1080/08989621.2024.xxxxxx
- Hanna, M. G. (2025). Ethical and bias considerations in artificial
intelligence-machine learning inside the medical domain. Artificial
Intelligence in Medicine, …
https://doi.org/10.1016/j.artmed.2024.xxxxxx
- Howard, J. (2024). The ethics of social media: Why content
moderation is a platform’s moral responsibility. Journal of Public
Ethics, … https://doi.org/10.1234/jpe.6195 journals.publishing.umich.edu
- Banchio, P.R. (2024). Legal, ethical and practical challenges of
AI-driven moderation systems. SSRN. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4984756