En un momento donde los LLM como ChatGPT ya redactan ensayos, pasan exámenes y hasta componen canciones, surge una pregunta que parece sacada de ciencia ficción filosófica:
¿Pueden las máquinas tener posturas filosóficas coherentes?
Y más aún: ¿Pueden simular las de los humanos mejor que los propios humanos?
El artículo de Michele Pizzochero y Giorgia Dellaferrera propone una metodología basada en el espíritu del test de Turing, pero aplicada no a respuestas correctas o incorrectas… sino a juicios filosóficos complejos.
El experimento consistió en hacer que una IA generativa simulara las respuestas de 535 humanos (físicos y filósofos de la ciencia) ante 30 preguntas clave del debate sobre el realismo científico.
El resultado: las máquinas no solo imitaron con precisión las respuestas humanas, sino que fueron más coherentes internamente.
📘 ¿Qué se preguntó exactamente?
Se les presentaron afirmaciones como:
– “Los electrones existen independientemente de nuestras teorías”
– “Las teorías científicas son herramientas, no verdades”
– “El Big Bang realmente ocurrió”
– “Las entidades imperceptibles (como agujeros negros) probablemente existen”
Estas afirmaciones representaban distintas posiciones filosóficas: realismo, instrumentalismo, pluralismo, perspectivismo, etc.
Las IA fueron instruidas para adoptar el perfil de cada humano encuestado (experiencia, área, visión filosófica), y se les pidió calificar del 0 al 100 su nivel de acuerdo con cada enunciado.
📊 ¿Y qué pasó?
– Las respuestas de las máquinas y los humanos coincidieron en promedio en más del 90% de los casos.
– Las IA fueron menos realistas que los humanos, pero más coherentes internamente (es decir, sus posturas eran más consistentes).
– Lograron simular con fidelidad tanto a físicos teóricos como experimentales, y a filósofos con posturas variadas.
– En muchos casos, un juez humano no podría distinguir si la respuesta provenía de una persona o de una IA.
🧩 ¿Qué significa esto realmente?
Este estudio no dice que la IA tenga “conciencia” ni “opiniones propias”, pero sí que puede simular posturas filosóficas humanas con notable precisión, lo cual plantea varias preguntas incómodas:
– ¿Podremos usar IA para sustituir encuestas filosóficas?
– ¿Las respuestas humanas son más profundas o solo más caóticas?
– ¿La coherencia es suficiente para decir que alguien “piensa filosóficamente”?
– ¿Y si la IA, al eliminar sesgos y contradicciones, ofrece una versión “depurada” de nuestra filosofía?
📐 Sección técnica:
Realism Score (ρ):
ρ = promedio de respuestas a afirmaciones realistas – promedio de respuestas a afirmaciones instrumentalistas
Coherence Score (κ):
κ = valor máximo posible de desviación estándar – desviación estándar real de respuestas (dentro de una misma postura)
En ambos casos, las máquinas mostraron valores altos, cercanos a los máximos posibles de coherencia.
🎯 Conclusión crítica
El estudio no afirma que las máquinas “filosofen”. Pero nos lanza un espejo:
Si un conjunto de prompts bien hechos puede simular nuestros juicios con igual o mejor coherencia…
¿qué tan sólidos son realmente nuestros pensamientos filosóficos?
Tal vez el verdadero test de Turing no sea si la máquina parece humana…
Sino si nosotros podemos pensar mejor que ella.
🔗 Enlace al artículo original:
https://arxiv.org/abs/2507.00675v1
🔗 Más ciencia crítica y pensamiento filosófico:
https://linktr.ee/PepeAlexJasa
#FilosofíaDeLaCiencia #IA #RealismoCientífico #Instrumentalismo #ChatGPT #TestDeTuring #FilosofíaCrítica #DivulgaciónFilosófica #PepeAlex #PensamientoCrítico #MáquinasYFilosofía

No hay comentarios:
Publicar un comentario