Saltar al contenido

La ciclogénesis de las palabras

Intercambio de ideas

Menú
  • Inicio
  • Sobre el autor
  • Microrrelatos
    • Introducción
    • Ver todos
  • Mi cuenta
  • Tienda
  • Contacto
Menú

EL ROBOT QUE VIENE

Publicada el 29 de enero de 202629 de enero de 2026 por José Ramón Entenza

O de las predicciones y las sociedades futuras

Cuando tuve le idea y decidí desarrollar este artículo, ni en sueños imaginé donde me estaba metiendo, en el sentido de la profundidad y complejidad de la tarea. Nuestro concepto colectivo y nuestra retina siguen aguardando la llegada de figuras humanoides, máquinas con voluntad propia o sustitutos directos del ser humano. Sin embargo, si no miramos muy lejos en el futuro, el robot que viene no se parece demasiado a esa imagen. No camina como nosotros, no piensa como nosotros y, en la mayoría de los casos, ni siquiera tiene cuerpo. Es más silencioso, más específico y está mucho más integrado en sistemas que ya forman parte de nuestra vida cotidiana.

Desde el punto de vista técnico, un robot no es otra cosa que un sistema capaz de percibir un entorno, procesar información y ejecutar acciones siguiendo reglas algorítmicas. A veces ese entorno es físico —una fábrica, un hospital, una carretera— y a veces es puramente digital. En muchos casos, el robot no se presenta como una entidad visible, sino como una capa de automatización que opera en segundo plano: decide rutas, filtra información, asigna recursos o prioriza tareas.

Los expertos en robótica coinciden en un punto clave: el avance actual no se dirige hacia máquinas generales capaces de hacer cualquier cosa, sino hacia sistemas altamente especializados. Los robots son extraordinariamente eficaces cuando el problema está bien definido, las variables son limitadas y el contexto es estable. En cuanto esas condiciones se rompen, su rendimiento cae de forma abrupta. No estamos, por tanto, ante una sustitución global de la capacidad humana, sino ante una fragmentación extrema de tareas.

Algo similar ocurre en el campo de la inteligencia artificial. A pesar del lenguaje habitual, los sistemas actuales no entienden lo que hacen. No poseen intención, conciencia ni comprensión semántica. Funcionan identificando patrones estadísticos en grandes volúmenes de datos y optimizando respuestas en función de objetivos previamente definidos. Su aparente “inteligencia” es, en realidad, una combinación de velocidad, escala y cálculo probabilístico. Confundir ese rendimiento con entendimiento es uno de los errores más frecuentes del debate público.

Desde la economía y la sociología, el diagnóstico es más matizado que las narrativas apocalípticas o triunfalistas. La mayoría de los estudios coinciden en que no desaparecen profesiones enteras, sino tareas concretas dentro de ellas. Esto produce una reorganización del trabajo: algunas funciones se automatizan, otras se transforman y otras adquieren mayor valor. El impacto, sin embargo, no es homogéneo. Afecta de manera distinta según el nivel educativo, el sector productivo y el marco regulatorio de cada país.

En el ámbito del trabajo, el cambio más profundo no es la desaparición del empleo, sino la transformación de la relación con la tarea. Cada vez más personas trabajan supervisando sistemas automáticos, corrigiendo errores, interpretando resultados o tomando decisiones finales basadas en recomendaciones algorítmicas. Esto desplaza la responsabilidad, pero no la elimina. El riesgo aparece cuando la autoridad se delega sin comprensión: cuando el sistema “sugiere” y el humano obedece sin cuestionar.

Esta dinámica tiene consecuencias más amplias en la vida social. Delegar decisiones no es un acto neutro. Cuando dejamos que sistemas automáticos elijan por nosotros —qué vemos, qué compramos, qué ruta seguimos, qué opción es “mejor”— La capacidad de juicio se atrofia lentamente por desuso. El robot no nos quita la habilidad en una tarea; la vamos cediendo nosotros mismos poco a poco.

En la vida cotidiana, el robot que viene no se impone, se normaliza. Aparece como una mejora incremental: menos fricción, menos esfuerzo, menos decisiones incómodas. La automatización se vuelve invisible. Y precisamente ahí reside su mayor impacto social. No en la sustitución explícita, sino en la transformación silenciosa de hábitos, expectativas y responsabilidades.

Muchos expertos señalan que el verdadero riesgo no es que los robots se vuelvan demasiado inteligentes, sino que los humanos se vuelvan demasiado dependientes, en un sentido cultural. Cuando asumimos que los sistemas “saben más”, dejamos de cuestionarlos. Cuando asumimos que “optimizan”, dejamos de preguntarnos qué valores están incorporados en esa optimización. Todo algoritmo refleja decisiones humanas previas: qué medir, qué ignorar, qué priorizar.

Desde esta perspectiva, el debate sobre el robot que viene no es un debate sobre máquinas, sino sobre mediación. Los robots no actúan en el vacío: median entre nosotros y el mundo. Filtran, traducen, aceleran y simplifican. Y en esa mediación se reconfiguran las relaciones sociales. No porque el robot tenga intenciones, sino porque nosotros reorganizamos nuestra conducta en torno a él.

La ciencia ficción ha explorado esta intuición durante décadas, no tanto imaginando máquinas rebeldes, sino sociedades que delegan demasiado. La pregunta central no suele ser qué hará el robot, sino qué dejamos de hacer nosotros. Esa pregunta sigue siendo pertinente hoy, precisamente porque el desarrollo real es menos espectacular y más profundo de lo que se suele imaginar.

El robot que viene no decide por sí mismo. Decide porque nosotros diseñamos los marcos en los que decide. No nos sustituye como sujetos morales, pero puede diluir la percepción de responsabilidad si no somos conscientes de cómo funciona y por qué actúa.

En última instancia, lo que está en juego no es el futuro de los robots, sino el tipo de relación que queremos mantener con sistemas que ejecutan sin comprender. El robot que viene no es una amenaza externa. Es un espejo incómodo de nuestras prioridades, nuestras delegaciones y nuestras renuncias cotidianas. Y esa es una decisión que, de momento, sigue siendo humana.

He intentado hacer un cronograma basado en la opinión de los expertos en robótica. Es necesario parametrizar el cuándo se espera algo para determinar el hasta donde puede llegar ese algo. Así que, a veinticinco años vista, alrededor de 2050, el escenario se prevé todavía lejos de una IA fuerte, con robots presentes en cuidados y acompañamiento, limitados, con automatización en procesos de gestión. Ni rastro de conciencia artificial (cercana a la humana), ni máquinas autónomas gobernando. Pero comienza una dependencia estructural que conllevará una redistribución del trabajo y se delegará mucho más en lo robótico.

En 100 años (2126) se esperan ya robots plenamente integrados en cuidados, infraestructura, mantenimiento y exploración de entornos extremos. Serán Sistemas artificiales con autonomía operativa elevada, pero sin conciencia y sin intencionalidad propia. No existirá aún conciencia artificial y valor social se desplazará hacia El valor social se desplaza hacia la supervisión, el diseño de objetivos, la creatividad contextual y el cuidado humano.

En 200 años (2226) ya entramos en terrenos de predicciones más especulativas. Habrá sistemas artificiales con capacidad de aprendizaje y reconfiguración, con una interacción muy fluida con humanos. Podrían modelar contextos complejos, anticipar consecuencias y elegir entre objetivos. Aunque eso no implica todavía conciencia, sino tan solo sofisticación funcional. A estas alturas la sociedad debe reorganizarse y tal vez reinventarse para coexistir en un plano en el producir requerirá cada vez de menos humanos.

En cuanto a la evolución robótica, no se espera a robots cada vez más biológicos, sino a humanos cada vez más tecnológicos. Por un lado la interfaz cerebro-máquina estará muy desarrollada, y la dependencia humana de estos sistemas seguirá aumentando.

En 500 años (2526), lo que se espera entra en marcos y terrenos conceptuales y filosóficos. Pero una opinión seria y formada nos hace prever sistemas artificiales autónomos en exploración espacial, coexistencia de múltiples formas de inteligencia —biológica, artificial e híbrida—, y con una convergencia funcional entre humanos y máquinas, es decir, con funciones cada vez menos distinguibles entre ambos. Empezaremos a hacernos esa pregunta recurrente en la ciencia ficción: “¿Qué consideraremos humano cuando la inteligencia deje de ser exclusiva de nuestra biología?”.

Cuanto más lejos miramos, menos importa la tecnología concreta y más importa qué decidimos conservar como humano.

No puedo terminar, aunque el tema como ves se ha hecho excesivamente largo, sin una referencia a escritores consagrados y sus visiones de este futuro que describen los expertos. Así, comenzando por Isaac Asimov (1920–1992), nos encontramos al robot del futuro como un problema moral controlable por “las tres leyes de la robótica”, archiconocidas. Esta visión no parece plausible en un amplio horizonte temporal.

Stanisław Lem (1921–2006) acierta en cuanto a que sistemas muy complejos pueden comportarse de forma correcta y, aun así, producir resultados indeseables y, en la complejidad de gobierno de esos sistemas. Lem ve al robot como espejo del límite humano.

Ted Chiang (1967– ) concibe al robot como un sistema sin interioridad. Su predicción de conflicto aparece desplazada hacia la interpretación del papel humano frente a sistemas que ejecutan por inercia, sin comprensión. La visión de Chang se acerca mucho a la de los expertos, sobre todo en su idea de que la inteligencia funcional no necesita conciencia.

Para concluir, las previsiones expertas se alejan hoy tanto de la utopía como de la distopía. No vienen robots conscientes ni voluntades artificiales. Vienen sistemas eficaces, especializados, cada vez más integrados en decisiones cotidianas. Y en esa integración, casi imperceptible, se desplaza algo más importante que el trabajo o la técnica: la práctica humana de decidir, de dudar, de hacerse cargo.

Quizá por eso la cuestión central no es si los robots pensarán como nosotros, sino si nosotros seguiremos pensando cuando pensar deje de ser necesario para que el sistema funcione. En ese punto, la tecnología dejará de ser un problema de ingeniería y se convertirá en una cuestión cultural.

Permíteme terminar con un punto de distopía: igual que ocurre con los viajes en el tiempo, la robótica previsible no está exenta de que un descubrimiento inesperado haga saltar por los aires las previsiones actuales. Por eso, quien sabe… quizás dentro de quinientos años releamos este artículo y nos riamos de lo ingenuos que éramos.

Navegación de entradas

← LA FORMA DE LA VIDA

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Sobre el autor

Soy José Ramón Entenza, natural de Marín, en Pontevedra, Licenciado en Ciencias Físicas, Graduado en Farmacia y Licenciado en Derecho. He cursado estudios de doctorado en Inteligencia Artificial, y he publicado artículos de divulgación científica en diversas revistas especializadas y realizado numerosas ponencias internacionales de carácter científico... [leer más]

Sígueme

Boletín

Introduce tu correo electrónico para recibir nuestro boletín

Últimas entradas

  • EL ROBOT QUE VIENE
  • LA FORMA DE LA VIDA
  • LA MEMORIA ¿NECESITA CEREBRO?
  • LA FABULA DE LOS TRES HERMANOS
  • EL AMANECER DE UN NUEVO AÑO

Enlaces rápidos

  • Sobre el autor
  • Boletín
  • Contacto
  • Aviso legal
  • Política de privacidad

Últimas entradas

  • EL ROBOT QUE VIENE
  • LA FORMA DE LA VIDA
  • LA MEMORIA ¿NECESITA CEREBRO?
  • LA FABULA DE LOS TRES HERMANOS
  • EL AMANECER DE UN NUEVO AÑO
  • Facebook
  • X
  • YouTube
© 2026 La ciclogénesis de las palabras | Funciona con Minimalist Blog Tema para WordPress