La ciencia de las ciencias sociales

Ensayo

En esta entrega, el autor propone algunas ideas sobre cómo podría reforzarse el componente científico en la enseñanza de las ciencias sociales, usando el inicialmente abstracto concepto de la entropía.

"El mundo (y sus usualmente bellos componentes) tiene siempre una estructura que lo conforma y le da sentido". (Getty Images)
Guillermo Levine
Ciudad de México /

“El pensamiento moderno ha realizado un progreso considerable al reducir el existente a la serie de las apariciones que lo manifiestan”. Así comienza la obra central de Jean-Paul Sartre, El ser y la nada (1943), celebrando la terminación de aquellas nociones idealistas del “nuómeno” tras el fenómeno y de lo metafísico e imperceptible.

“Las apariciones que manifiestan al existente no son ni interiores ni exteriores: son equivalentes entre sí, y remiten todas a otras apariciones, sin que ninguna de ellas sea privilegiada [...] La apariencia remite a la serie total de las apariencias y no a una realidad oculta que haya drenado hacia sí todo el ser del existente”.

Desde la primera página Sartre destrona “el dualismo de la apariencia y la esencia” para —aparentemente— fundamentar la existencia de las cosas y de los fenómenos por la vía directa de la percepción de sus manifestaciones, aunque el hecho de que el libro transcurra todavía por 775 páginas adicionales indica que el asunto dista mucho de ser trivial. Si en este terreno de lo que podría llamarse “filosofía pura” se intenta adscribir una base firme para lo que se percibe como la realidad, más aún debiera suceder en áreas de lleno inmersas en actividades sociales, como la economía, las ciencias políticas, la sociología y similares.

En una entrega anterior comenté que la filosofía es el intento por decir algo coherente acerca del mundo que nos rodea, tratando a la vez de averiguar sus principios de funcionamiento, lo cual también conduce al concepto de ciencia. Asimismo, desde otra perspectiva, la filosofía es el amor y entusiasmo por el conocimiento y sus implicaciones para la vida y la sociedad.

Bajo esa concepción propondré ahora algunas ideas sobre cómo se podría reforzar el componente de ciencia en la enseñanza de las llamadas ciencias sociales, usando el inicialmente abstracto concepto de la entropía y sus muy extendidas implicaciones para el tema.

Lo que hoy se conoce como ciencias sociales solía llamarse filosofía moral, y no fue sino hacia mediados del siglo XIX que Auguste Comte usó el término “física social” para estudiar los hechos sociales, aunque casi 200 años antes, en 1677, Spinoza había escrito su Ética demostrada según el orden geométrico, un intento de caracterizar la metafísica, las pasiones humanas, la voluntad y la ética como resultado de la necesidad lógica mediante una extensa y complicada obra armada en el estilo de Euclides, con definiciones, axiomas y teoremas.

La iniciativa de Comte se dio en plena época del positivismo y de la revolución científica que pronto llegaría impulsada por el uso industrial de la electricidad, lo que además causó un cambio irreversible en la historia del mundo y de todos sus habitantes.

No solo eso: Comte llegó incluso a jerarquizar las ciencias con base en su grado de complejidad, colocando a las matemáticas como la ciencia más básica, seguida por la astronomía, la física, la química y la biología, para culminar, por supuesto, con la física social rebautizada como sociología. Todavía, a finales de los años 60 así lo aprendí en la escuela preparatoria, aunque esa supuesta sencillez de las matemáticas y la física resulte muy sospechosa, pues simplemente no se ve cómo la demostración formal de un teorema referido a espacios multidimensionales o del ámbito de la Teoría General de la Relatividad pudiera ser menos complicada que, por decir, los pleitos y las relaciones entre los partidos políticos; más bien como que pertenecen a dimensiones diferentes, aunque mantendrán una cierta similitud si se preocupan por manejar esquemas lo más alejados posible de la subjetividad o de la conclusión fácil.

Complejidad y ciencia

Para estas reflexiones básicas sobre la fundamentación de la enseñanza de las ciencias sociales convendría entonces abundar un poco en dos conceptos: complejidad y ciencia, que pudieran servirnos de guía en el asunto de dilucidar si la historia, la sociología y, en general, los estudios sociales son ciencia o no, y el corolario deseable: ¿cómo se podría “cientifizar” la enseñanza de las ciencias sociales... y para qué?

Comenzaremos por la complejidad. Por “complejo” debe entenderse algo compuesto por elementos diversos interconectados en formas que no necesariamente son claras o evidentes, pero que sí pueden ser dilucidadas. Complejo no es sinónimo de complicado, sino más bien de elaborado: dotado de estructura interna. El concepto clave del pensamiento complejo implica que los asuntos bajo análisis deben ser considerados como porciones íntegras del mundo, tal vez pequeñas, sí, pero no por ello separadas, aisladas ni reducidas a series inconexas de elementos constitutivos. El mundo (y sus usualmente bellos componentes) tiene siempre una estructura que lo conforma y le da sentido, y eso es lo que hay que descubrir y respetar si de hacer ciencia se trata, y no tan solo de expresar posiciones o emitir opiniones.

No es común que los fenómenos complejos revelen su estructura interna con la primera observación, porque están conformados por una multiplicidad dinámica de elementos interrelacionados; más bien exhiben un comportamiento específico como producto de las combinaciones particulares de sus componentes, que no suelen ser simples efectos o cantidades aisladas sino vectores, entendiendo por vector un elemento que requiere más de una cantidad (perspectiva o dimensión) para ser caracterizado o comprendido por completo.

Así, la resultante vectorial de una situación compleja es lo que al final queda o se deriva de una combinación de vectores analizados en forma integral, y es de fundamental importancia para comprender situaciones complejas. Como un trivial ejemplo, si sobre un cierto objeto simultáneamente se aplican tres fuerzas de diferente magnitud desde diversos ángulos, el resultado no son tres movimientos sino uno solo: la resultante vectorial de la combinación. La fuerza es un vector, pues no basta con decir que empujé un cuerpo con una cierta fuerza sin decir también en cuál dirección (vertical, horizontal, etc.) y en qué sentido (de izquierda a derecha o al revés). Abusando un poco de los términos, las situaciones no triviales debieran siempre describirse o estudiarse como si fueran vectores, porque (casi) nunca están compuestas por una sola “verdad” evidente, monolítica y unitaria, y sin la intervención de ningún otro factor. A la realidad le gusta jugar y hacernos pensar antes de revelarse ante nosotros.

En esa entrega anterior también propuse lo que llamo el “principio de necesidad lógica”, que expresa el sentir y la razón de la ciencia, y que aquí sólo mencionaré para no repetir el tema ya expuesto:

“Las cosas son como son por —al menos— una causa (que conviene o suele resultar interesante averiguar), porque si no fuera por esa causa entonces no serían como son, sino de otras formas”.

Este asunto de la necesidad lógica resulta de enorme conveniencia para conocer el mundo, pues permite, entre tantas posibilidades, saber cosas sin necesidad de experimentarlas una a una: el hecho de que 2 + 2 = 4 implica que si tomo dos sillas y las pongo junto a otras dos tendré un total de cuatro, independientemente de su forma, tamaño o color… o si incluso existen en realidad o no. Ese mismo principio me permite también hacer afirmaciones ciertas acerca de lugares que ni siquiera conozco, como cuando digo que todas, absolutamente todas, las sillas de Nueva Caledonia se dividen en dos clases: las que son azules y las que no. (Aparentemente esto sonó trivial, pero constituye —nada menos— el principio formal de la llamada lógica o álgebra booleana, en honor del matemático inglés George Boole (1815-1864), y que a su vez es la base con la cual funcionan los circuitos de las computadoras… y toda la era digital.)

Originalmente motivada por la filosofía, la ciencia es un complejo y apasionante sistema compartido de creación y sistematización del conocimiento y de descubrimiento y exploración de la realidad. Sus principios son, entre otros, su independencia de los individuos y su entorno social y personal, así como la necesidad lógica y la reproducibilidad de sus resultados por parte de otros investigadores.

Dijimos que la ciencia tiene un especial cuidado de no caer en subjetividades ni prestarse a interpretaciones fáciles y cómodas, y no depende de suposiciones sin fundamento ni hace referencias a autoridades como justificación de las cosas. La ciencia (y la tecnología moderna resultante de ella) se guían por consideraciones e inferencias de tipo universal, matematizable, no particular; tratan siempre de establecer premisas que describan el conjunto universal de ejemplos del fenómeno bajo análisis. Esto no siempre será posible en sociología o en estudios políticos, pero sí debería existir la preocupación por alejarse de la subjetividad, o al menos no tomarla como guía, y mejor no hablemos de las ideologizaciones que todo lo oscurecen. (Una cosa es la ideología —sospechosa de por sí— y otra muy diferente es la vanidosa “certeza” causada por las preconcepciones.)

Aquí no intento argumentar que las ciencias sociales deban emplear los mismos métodos de las conocidas como “ciencias duras” (química, física y similares), ni tampoco podrían considerarse como sus “parientes pobres”, mas sí debieran compartir una base mínima de métodos, objetividad e intención de dilucidar y comprender procesos como guía de entendimiento de los fenómenos (sociales) bajo estudio. Un ejemplo interesante lo ofrece el libro Freakonomics, de Steven Levitt y Stephen Dubner, publicado en español en 2007, donde con una variedad de ejemplos basados en datos y estadísticas se muestra el fundamental papel de los incentivos (estímulos o recompensas de algún tipo, incluso moral o intelectual) para la toma de decisiones individuales que, cuando se analizan numéricamente, revelan tendencias grupales.

El caso tal vez extremo de la complejidad en este campo de estudios lo representa la ciencia política, pues tantas veces esas actividades —que nos afectan a todos— están más sujetas a pulsiones individuales, egocentrismos e ideologías que a una revisión objetiva de la realidad bajo análisis, y eso no deja de ser una tragedia que ya podría comenzar a superarse. La frase que Einstein había dicho unos años antes de rechazar la presidencia honoraria del Estado de Israel en 1952 es abrumadora: “la política es más difícil que la física”. Y sí, algo deberíamos tratar de hacer al respecto de tales dificultades, al menos en el mundo de la enseñanza.

A modo de un primer ejemplo de cómo los conceptos de la ciencia pueden enriquecer la comprensión formal, no solo coyuntural, de muchos fenómenos sociales, ahora presento el fundamentalmente básico concepto de la entropía, porque sin esa arma conceptual muchas veces las cosas se quedan en el nivel de lo anecdótico y pierden profundidad.

Caso de análisis: la entropía

Emplearemos uno de los principios de la termodinámica (nada menos) para aclarar, con irrefutables bases formales observadas en la naturaleza, algunas ideas usualmente erróneas acerca del destino, el caos y el orden. La entropía es una noción fundamental de la física, desarrollada en la segunda mitad del siglo XIX como parte de la comprensión formal de los intercambios de energía —la teoría del calor—, y además se emplea como medida matemática para definir el grado de desorden de un sistema (lo cual incluye la información) en términos de la (des)organización de las partículas que lo conforman, así como de su correspondiente probabilidad de distribución.

Pensemos, por ejemplo, en la enorme cantidad de moléculas de un gas dentro de un recipiente, que se encuentran en continua agitación térmica causada por la energía recibida del entorno en forma de calor. El postulado es que mientras más homogeneidad haya en un sistema como ese (en “equilibrio térmico” porque no tiene algunas zonas más calientes que otras), mayor será su entropía, pues el hecho mismo de que el calor y la presión “se repartan” equitativamente implica un mayor desorden en el acomodo de las partículas, porque ocuparán posiciones cada vez más aleatorias mientras se distribuyen para llenar uniformemente ese espacio. Si no fuera así, entonces en forma espontánea el recipiente tendría más gas en un extremo que en el otro, y eso no sucede.

En ausencia de un factor externo, es mucho más probable que las partículas queden distribuidas en posiciones aleatorias a que asuman un muy poco natural acomodo organizado en alguna esquina. A más desarreglo, mayor entropía y más el equilibrio térmico resultante porque, nuevamente, no hay zonas frías y zonas calientes, sino que todas tienen la misma presión y la misma temperatura.

Si, por el contrario, comprimimos el gas, las moléculas se juntan y adquieren un mayor orden en sus posiciones, pues ahora tienen menos libertad de estar en cualquier sitio: la entropía disminuye y el desequilibrio térmico aumenta como resultado de la necesaria fuerza externa que actuó sobre el gas para “ponerlo en orden” y hacer menos probable que una partícula quede en un lugar cualquiera al azar.

Más orden denota menor entropía, más organización y más desequilibrio (pues la homogeneidad disminuyó), pero no es gratuito ni sucede por sí mismo. El desarreglo —que implica una distribución pareja o equilibrada de las partículas— es la situación “natural” previa al orden impuesto por una fuerza exterior. (Esto pudiera ser confuso debido a la usual connotación negativa de la palabra “desarreglo” y la positiva de “equilibrio”, pero debe entenderse que en realidad el desorden implica que la energía se encuentra repartida aleatoriamente, sin más concentraciones en un sitio que en otro.)

Es decir, la entropía de un sistema confinado solo disminuirá por la intervención de un agente externo al sistema, y la segunda ley de la termodinámica postula que en la naturaleza todos los fenómenos reales proceden en el sentido de una entropía creciente, debido a las interacciones desordenadas entre las partículas. Cuanto mayor sea la entropía, mayor es el desacomodo y la dispersión de la energía, y por tanto menos de ella se podrá utilizar para realizar trabajo útil.

Otro ejemplo: si dejamos caer un conjunto de canicas al suelo, nunca las veremos asumir por sí mismas —en forma espontánea— una figura reconocible, y más bien se desparramarán en total desorden, repartiendo o equilibrando aleatoriamente la distancia entre cada una de ellas y aumentando la entropía del sistema. Si deseáramos organizarlas e imponerles un orden, para disminuir la entropía forzosamente tendríamos que acomodarlas agrupándolas una por una y “des-repartir” su natural distribución aleatoria, con el correspondiente gasto de energía adicional.

Mediante un diseño explícito y un proceso que consume energía, los minúsculos puntos de tinta negra sobre el papel (o los pixeles sin luz en la pantalla) se agrupan en formas reconocibles que llamamos “letras”: manchas con un alto grado de organización y muy baja probabilidad de ser aleatorias; es decir, con un nivel bajo de entropía. Si estuvieran distribuidos al azar, solo veríamos esa como “nieve” —de alta entropía— que aparece en los canales de televisión analógica sin señal, lo que en acústica se conoce como “ruido blanco”, sin contenido de información útil.

Si paseamos la mano a ciegas por el teclado del piano, de seguro no escucharemos una melodía, sino más bien un desorden caótico de notas, producto de la falta de acomodo preciso de cada una. Es mucho más fácil tocar mal que hacerlo bien, porque esto último requiere de un gasto adicional de energía para disminuir la entropía e imponer una armonía reconocible, mucho menos probable por sí sola: una melodía necesariamente implica desequilibrio en la distribución de las notas, pues deben organizarse en formas que no son espontáneas ni homogéneas.

Es decir, resulta naturalmente más cómodo y sencillo hacer las cosas mal que realizarlas bien: el orden requiere trabajo.

Por sí solos, los sistemas naturales —y los sociales, terriblemente— tienden hacia una entropía (desorden) creciente, y ninguna ley natural predice menor caos o un “destino manifiesto” predecible y preconfigurado, como el que casi prometía el materialismo histórico, porque eso requeriría de una superior fuerza ordenadora para acomodar las cosas. ¿Será acaso que tal vez la tentación autoritaria tenga una oculta motivación matemática?

Sin caer en pseudo cientificismos fáciles, del concepto de entropía se pueden también extraer algunas enseñanzas que bien convendría incluir en algún curso universitario de iniciación a la ciencia. Por ejemplo, en la teoría matemática de la información, la entropía (cuantificada en bits) mide la cantidad de información contenida en un conjunto de datos, y a más incertidumbre en las fuentes emisoras (o más ruido en el canal de comunicación) corresponde una mayor entropía, que se podrá reducir con el esfuerzo adicional de adquirir o buscar mayor precisión o conocimiento específico.

Igualmente, la existencia misma de los organismos vivientes exige ir en contra de la entropía creciente, del equilibrio térmico y del estatismo para mantener los procesos vitales y la existencia organizada de las células mediante una continua inyección de energía proveniente del exterior (del Sol, en última instancia). Ese trabajo vital produce un estado de desequilibrio perenne y poco probable que debe ser supervisado en forma dinámica todo el tiempo (en biología se conoce como homeostasis), so pena de degenerar en desórdenes de tipo canceroso que rápidamente acabarían con el ser vivo, devolviéndolo a “la paz de los sepulcros” donde todo está en reposo y equilibrio térmico. Aunque esto se refiere puntualmente a los organismos biológicos, no podría dejar de atribuírsele cierta relevancia para los sistemas sociales.

En qué grado y en cuál medida todo esto también pudiera aplicarse o no a las observaciones y planteamientos sociológicos es un asunto digno de consideración y análisis, pues resulta innegable que los individuos no siempre actuamos guiados por evaluaciones racionales (o al menos conscientes), y más bien reaccionamos ante los estímulos en formas diversas, que incluso pudieran predecirse o al menos explicarse en términos no personales.

Para terminar aquí, la invitación es a pensar en cómo se podrían incorporar al currículum académico temas y conceptos similares a éstos para enriquecer la “carga científica” de la enseñanza de las ciencias sociales y alejarse tanto de los esquemas determinísticos como de las tentaciones cacofónicas y supuestamente libertarias.

AQ

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.