SciELO - Scientific Electronic Library Online

 
vol.4 número7Causar o dejar que ocurraUna crítica epistemológica a la metametodología científica de Larry Laudan índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Andamios

versión On-line ISSN 2594-1917versión impresa ISSN 1870-0063

Andamios vol.4 no.7 Ciudad de México dic. 2007

 

Dossier: epistemología de la ciencia

 

Filtros epistémicos y alternativas relevantes1

 

Epistemic filters and relevant alternatives

 

Alejandro G. Miroli*

 

* Licenciado en filosofía y pasante de doctorado. Correo electrónico: alexmir@arnet.com.ar

 

Fecha de recepción: 30/04/2007
Fecha de aceptación: 24/07/2007

 

Resumen

Este trabajo intenta ser una aportación a la noción de alternativa relevante a la filosofía de las ciencias: nuestra hipótesis es que dicha noción permite enriquecer el análisis de las relaciones entre ciencia ortodoxa y el problema de la disidencia en ciencias. Hacia el final examinaremos un caso que presenta el problema de la disidencia epistémica en forma extrema: el caso de la medicina homeopática. En este sentido, dadas las limitaciones del trabajo, nuestro interés es proponer algunas líneas para la reconstrucción y examen del concepto de alternativa relevante, examinando la relación entre la homeopatía y la medicina positiva.

Palabras clave: Escepticismo, alternativa relevante, lógica del referato, disidencia epistémica, contextualismo.

 

Abstract

This paper is aimed at doing a contribution to the notion of relevant alternative to the philosophy of science: the hypothesis is that such a notion helps enriching the analysis of the relations between orthodox sciences and the problem of dissidence in sciences. And finally we will examine one case presenting the problem of epistemic dissidence in an extreme form: the case of homeopathy. In this sense, given the limitations of this paper, our interest is proposing some clues for the reconstruction and examination of the concept of relevant alternative by examining the relation between homeopathy and actual medicine.

Key words: Scepticism, relevant alternative, logia of referee, epistemic dissidence, contextualism.

 

I believe new science will explain how homeopathy
works... But research is not my concern. I want to
heal patients. As an M.D., I mostly suppressed
symptoms. Now I truly heal people.2

ELLEN FEINGOLD (2004)

 

CIENCIA Y DISIDENCIA

Ciencia sin disidencia es dogmatismo y clausura de la capacidad de generar novedades; ciencia disidente es renuncia a los métodos protocolizados de control y evaluación de calidad de los instrumentos cognitivos. ¿Cuál es el punto medio o de equilibrio entre un polo y el otro? La filosofía de las ciencias dominante en los departamentos de filosofía hasta los años 60 enfatizó el segundo polo, es decir la determinación de los estándares que permitieran demarcar la ciencia real de la pseudociencia y el pseudo–conocimiento.3 Por otro lado —y montados sobre el radicalismo político y teórico que informó a los Departamentos de Humanidades y de Estudios Culturales— las diversas reacciones contra la filosofía de la ciencia hegemónica desplazaron el fiel del interés hacia el primer polo.

De este modo, se instaló cierta idea que oponía el par Ortodoxia epistémica/Conservadurismo político al par Heterodoxia epistémica/ Radicalismo político, de modo que la adhesión a alguna agenda política radical hacía inevitable una defensa del relativismo o anarquismo metodológico, del pluralismo extremo y el rechazo de las pretensiones normativas de la epistemología, por ejemplo las escuelas constructivistas o posmodernas.4

Pero estas escuelas —más allá de que incorporaron factores antes no considerados en los contextos de descubrimiento— no hicieron ninguna contribución significativa al examen de lo que podría llamarse una lógica de la conciliación que permitiera generar compromisos no triviales entre ambas exigencias a partir de alguna noción de grado de disidencia o nivel de disidencia que trate de salir del maniqueísmo ortodoxia/heterodoxia.5

El marco operativo de dicha lógica de la conciliación es el proceso de producción de conocimiento que se presenta como documentos públicos —informes de investigación, tesis doctorales, artículos académicos, entradas enciclopédicas, manuales de enseñanza, etcétera— que describen estados de cosas o procesos o eventos de un fragmento de la realidad: específicamente, el dominio disciplinar u ontología regional de una disciplina dada. La producción de dichos documentos es una actividad de investigación en la cual un actor epistémico —doctorando, investigador independiente, equipo de investigación, comunidad interdisciplinaria, etcétera— pasa, de un estado de desconocimiento relativo de un ítem bajo investigación, a un estado de pro conocimiento relativo sobre dicho ítem, que se expresa en dicho documento. Ello supone que el actor epistémico emplea medios para obtener información6 de algún parámetro real de dicho ítem a reconocer.

Este proceso puede representarse teóricamente como la formulación de una pregunta —cuya forma lógica podrá ser muy compleja— y la provisión de una respuesta relativa a un marco de conocimiento antecedente que se presenta en dicho documento. Ese documento motivará una preservación, contracción, expansión o reemplazo total de dicho conocimiento antecedente. Pero la secuencia:

CONOCIMIENTO ANTECEDENTE + ÍTEM ESTUDIADO
DOCUMENTO CONOCIMIENTO MODIFICADO

no es lineal. En efecto, el investigador motivado por un ítem de estudio —que puede ser más o menos común o completamente extraordinario— no tiene completa libertad, ya que el conocimiento antecedente posee ciertos filtros epistémicos que aceptarán dicho documento, lo someterán a una exigencia de revisión o lo rechazarán. En términos de la cuestión que nos ocupa, la pregunta por la lógica de la conciliación no es sino preguntar por la estructura interna de dichos filtros epistémicos7 que media entre el documento y el conocimiento antecedente.

Esta mediación de los filtros epistémicos parte del hecho de que cualquier investigación está condicionada por la distancia entre el actor epistémico y los ítems bajo estudio, los que pueden estar separados del actor epistémico:

ESPACIALMENTE (por ejemplo el núcleo de un cuásar, la interacción entre patrones que conforman un protón, la dinámica de la membrana de la célula neoplásica).

TEMPORALMENTE (por ejemplo la separación del continente de Godwana, la formación de la Tierra, el surgimiento de los primeros primates antropomorfos).

MATERIALMENTE (por ejemplo la constitución del aparato psíquico, el conjunto de procesos que convergen en una tasa elevada de crecimiento económico).

Dado que la distancia E–T–M implica que muchas veces no se pueda tener acceso directo al dominio disciplinar, la trama inferencial de las ciencias configura un tejido en el que la información colectada en condiciones de intervención directa se vincula, corrige o permite generar información condicional acerca de ítems situados en parámetros E–T–M alógenos.

Por ello, hay ciertos diseños para colectar información que se pueda aplicar a la solución/respuesta de una hipótesis/pregunta formulada en el marco de teorías antecedentes. Tales diseños serán secuencia de acciones protocolizadas por los cánones metodológicos que permitirán identificar, medir, ordenar, sistematizar, y analizar los datos:

D1 Diseños de inspección/observación deliberada

D2 Diseños experimentales

D3 Diseños cuasi–experimentales8

D4 Diseños modelísticos

Las variaciones entre ellos dependen de la naturaleza del ítem por examinar, de la distancia involucrada, de los recursos disponibles, de los objetivos externos del proceso de investigación, de los límites ético–políticos9 o, directamente, de la naturaleza del dominio disciplinar. La distancia actor epistémico/dominio disciplinar será cada vez mayor de D1 a D4, de modo que la investigación modelística será la que presente mayor distancia, en la medida en que la realidad–en–el–modelo no es una representación literal de la realidad por investigar, sino una realidad–eventual: el ejemplo extremo de ello es la investigación económica, que es casi excluyentemente10 investigación modelística (por ejemplo la econometría o la economía actuarial, como disciplinas económicas directamente abocadas a la producción de información condicional o eventual para la investigación modelística del dominio temático del conocimiento económico: el conjunto de los procesos sociales vinculados con la producción, distribución y consumo de satisfactores de escalas subjetivas u objetivas de valor).11

Dado que incremento de distancia implica incremento de labilidad epistémica, D4 ofrece la mayor dificultad para su evaluación epistémica, pues todas sus variables son, prima facie, introducidas por el investigador y no hay comparación con ninguna instancia testigo. Sin embargo, esta labilidad de la herramienta modelística no obsta para que sea precisamente por ella que las ciencias fáctico–naturales y fáctico–sociales operen y obtengan sus mayores resultados.12 Aquí surge un problema filosófico: si un modelo es, en un sentido, una realidad inventada,13 entonces en tanto construcción, la verdad de dicho documento será completamente desconocida o, peor aún, el documento podrá ser literalmente falso —como en el caso del modelo de mercado de competencia perfecta—. Sin embargo, se vinculará con la realidad de dos maneras:

i) Por sus consecuencias, que podrán ser contrastadas directa o indirectamente.

ii) Por la determinación de niveles de abstracción: por ejemplo, podemos medir las distorsiones de los mercados reales respecto de los modelos de mercado de competencia perfecta, podemos introducir variables que —por lo menos en teoría— compensen dichas distorsiones y permitan medir grados de abstracción relativa que representen la convergencia de los mercados reales y el mercado de competencia perfecta. Este caso es interesante porque precisamente la crisis de los procesos de liberalización de la economía fundados en la aplicación de herramientas de mercado a problemas políticos y sociales se debió a la asunción del supuesto —falso— que asumía que las variables no económicas se iban a poner en fase con las soluciones optimizadoras de mercado y no —como muchos politólogos y periodistas consideran— a una debilidad interna del modelo de mercado.

Esta última manera supone que falsedad y verdad literal se deberían imputar a un determinado nivel de abstracción y no a otro; por ejemplo en los mercados reales no hay información completa ni nunca la habrá pero esto no impide que, prima facie, haya una convergencia relativa de los mercados reales a la optimalidad del mercado perfecto, aun si esta condición no se cumpliera nunca según diversos conjuntos de información disponible.

Pero, más allá de las validaciones de los modelos, el carácter libre e inventado de éstos hace que la apelación a modelos aparezca como una herramienta epistémica extremadamente laxa, de modo que bastaría formular un modelo de cierto nivel de abstracción que mostrara una operación posible, para pensar que se podían sortear los filtros epistémicos. Precisamente por ello, el modo de validación más común para la disidencia epistémica consiste en la oferta de modelos —o situaciones concebibles— alternativos al conocimiento existente.

Pero las cosas no son tan claras, pues la libertad creativa está restringida por los filtros epistémicos. Precisamente, una hipótesis sugerente para examinar los principios o filtros epistémicos que restringen el conjunto de modelos posibles es tratar el problema de la interpretación y evaluación de un modelo como un problema análogo al problema de las alternativas relevantes en epistemología. En las secciones siguientes, presentaré la particular tesis de Fred Dretske y exploraré su aplicación a una lógica de la conciliación modelo–conocimiento antecedente.

 

LA NOCIÓN DE ALTERNATIVA RELEVANTE

La noción de alternativa relevante fue introducida por Fred Dretske (1970) en el marco de una respuesta al argumento escéptico moderno;14 dicho argumento se aplicó a lo que podemos llamar la teoría estándar del conocimiento; según la cual:

 

S conoce P ssi

(TEC1) Condición de creencia: S cree que p.

(TEC2) Condición de justificación: S tiene razones para creer que P.

(TEC3) Condición de verdad: P es verdadera.

 

Junto a estas condiciones se podía considerar la siguiente condición lógica:

(TEC4) Condición de clausura deductiva: El conocimiento está cerrado bajo implicación lógica: si P y Q son proposiciones y S conoce que P y cree que Q porque conoce que P implica lógicamente Q, entonces S conoce que Q.

 

Dada dicha teoría estándar, el argumento escéptico era el siguiente (Dretske, 1970: 1011):

1) Sé "Estoy parado leyendo un trabajo sobre alternativa relevante en ciencias".

2) Si sé "Estoy parado leyendo un trabajo sobre alternativa relevante en ciencias" entonces sé "No estoy en un estado de decepción sensorial masiva, es decir, un cerebro en una cubeta, un sujeto soñando, una ilusión sensorial o ensoñación, un demonio que me engaña, etcétera".

3) No puedo saber —no estoy justificando— si "Estoy en un estado de decepción sensorial masiva, es decir, un cerebro en una cubeta, un sujeto soñando, una ilusión sensorial o ensoñación, un demonio que me engaña, etcétera" es verdadero o falso, por lo que puede ser falso.

4) Ergo: No puedo saber —no estoy justificando— en saber que "Estoy parado leyendo un trabajo sobre alternativa relevante en ciencias".

El argumento puede entenderse del siguiente modo: si no hay justificación para P y la carencia de justificación se trasmite deductivamente, entonces ello acarreará la carencia de justificación de Q, aunque Q sea una proposición que parezca evidente y que, en condiciones usuales de conocimiento, ningún actor epistémico negaría. Por ello, el argumento escéptico moderno se centra en mostrar la inconsistencia de las condiciones de justificación y de clausura lógica epistémica.15

Fred Dretske tomó esta contradicción como problema por responder. Su punto de partida es el análisis de cierta propiedad lógico–material de ciertos operadores —prefijos oracionales que exigen construcciones complementarias de acusativo oracional.

El autor señala que hay una familia de operadores —por ejemplo "Es verdad que...", "Es un hecho que...", "Es necesario que...", "Es posible que..." (Dretske, 1970: 1007)— que son operadores penetrantes (penetrating operator), pues para ellos se cumple en forma perfecta la siguiente propiedad: si P implica lógicamente Q entonces O (P) —siendo O una variable por cualquier operador penetrante— implica lógicamente O (Q). O sea, penetrabilidad es clausura deductiva. Pero una vez caracterizada esta propiedad se pregunta si hay operadores que no sean penetrantes o si hay grados de penetrabilidad. El examen de numerosos ejemplos lo lleva a sostener que hay numerosos operadores que sólo exhiben una penetrabilidad limitada —"Es extraño que...", "Es accidental que..."—,16 de modo que la penetrabilidad define tres familias de operadores: aquellos que pueden ser completamente penetrantes, los semi–penetrantes y aquellos que no tengan penetrabilidad (Dretske, 1970: 1009). Establecido esto, su interés es defender el carácter semi–penetrante de los operadores epistémicos, precisamente para probar que no se les aplica dicho argumento escéptico, ya que "If these operators were no penetrating, many of these objections <los argumentos escépticos que atacan a C2 a partir de C4> might be irrelevant" (Dretske, 1970: 1012),17 ya que dichos argumentos explotan precisamente la inconsistencia presunta entre TEC2 y TEC4. Dretske tiene que sostener que los operadores epistémicos son semi–penetrantes, porque hay casos obvios en los que opera la clausura, por ejemplo (Dretske, 1970, 1009): si conozco que Juan y María son marido y mujer (= están casados) entonces conozco que María está casada (Conozco (P Q) y (P Q) Q entonces Conozco Q).

En ningún caso la semi–penetrabilidad o no–penetrabilidad será defectiva (i.e. los casos de impericia lógica o desconocimiento lógico) sino que los operadores epistémicos son semi–penetrantes aun en condiciones de omnisciencia lógica (Dretske, 1970: 1010).

Luego de analizar diversos ejemplos, Drestke explica el grado o ausencia de penetrabilidad a partir de dos elementos básicos de los operadores doxásticos y epistémicos:

(1) PRESUPOSICIONES: "The general point may be put this way: there are certain presuppositions associated with a statement. These presuppositions, although their truth is entailed by the truth of the statement, are not part of what is operated on when we operate on the statement with one of our epistemic operators. The epistemic operators do not penetrate to these presuppositions <de modo que> The fact that the epistemic operators do not penetrate to these presuppositios is what helps to make them semi–penetrating" (Dretske, 1970: 1014).18

Dretske ilustra esto con el siguiente caso: S ve la cafetera humeando y escucha la tapa titilando dejando escapar vapor. Con esos datos S sostiene que el café está hirviendo, pero, al afirmarlos, la relación que hay entre (a) y (b) no es de consecuencia lógica, sino la relación de tener por seguro (granted) asumir o presuponer. De ese modo, la relación (a) presupone (b) puede describirse del siguiente modo:

(a) "El café está hirviendo" s (b) "Es café lo que está hirviendo en la cafetera".

"El <líquido que tiene el utensilio llamado cafetera en condiciones normales de empleo = café> está hirviendo" "Es café lo que está hirviendo en la cafetera".

En este caso la presuposición que está incluida en el término sujeto permite garantizar (b), pero no implica lógicamente (b), pues lo que (a) implica es (b*) "Es <el líquido que tiene el utensilio llamado cafetera en condiciones normales de empleo = café> lo que está hirviendo en la cafetera". Por consiguiente, tal presupuesto no es alcanzado por la implicación lógica y, por ello, permite imputar una contradicción en TEC1–TEC4.

Además de las presuposiciones, el autor explora otro rasgo de los operadores deónticos y epistémicos que los hace semi–penetrantes: la existencia de aquello que él llama consecuencias contrastivas (contrast consequences).

 

(2) CONSECUENCIAS CONTRASTIVAS

Dretske expone esta noción con el siguiente caso:

i) S conoce que x es A (La pared es roja).

ii) "x es A" implica lógicamente —para ciertos predicados— "x es no–B" (x es no–blanca).

iii) dado que "x es A" implica lógicamente "x es no–B", entonces "x es A" implica lógicamente "x es no–B y x es no–B/Q" (B = ser blanca y B/Q = ser blanca iluminada de rojo). (Dretske, 1970: 1015)

Si el operador conocer fuera penetrante, la atribución de conocimiento a S —que sepa justificadamente que la pared es roja— sólo será posible si S conoce justificadamente que la pared no es blanca iluminada de rojo. En circunstancias epistémicas normales, damos por garantizado que el color de la pared es rojo y no blanco enrojecido. En general, dado el conocimiento de ciertos hechos generales que fungen como conocimiento antecedente, tomamos como verdaderos ciertos presupuestos implícitos y rechazamos otros. Por ejemplo, si vamos al zoológico y vemos cebras, no pensaremos que son mulas pintadas, aunque no podamos pasar a la jaula e inspeccionar su piel. Pues, dados los hechos generales sobre los zoológicos, pensaríamos "That isn't very likely" o "Why should the zoo authorities do that?" (Dretske, 1970: 1016).19

Esto introduce una distinción entre las razones justificadoras de P y el conocimiento antecedente de P. Las razones justificadoras de P pueden estar neutralizadas porque no cuentan, prima facie, contra no–P, pero el conocimiento antecedente está sesgado respecto de P y no respecto de no–P, introduciendo una asimetría. La conclusión escéptica efectivamente triunfaría si se aceptara la penetrabilidad del operador conocer, pues S no conoce que la pared no es blanca–enrojecida:

the question here is... whether you know that this alternative hypothesis [es decir, los animales de la jaula son mulas acebradas] is false. I don't think you do. In this I agree with the skeptic. I part company with the skeptic only when he concludes from this that, therefore, you do not know that the animals in the pen are zebras. I part with him because I reject the principle he uses in reaching this conclusion —the principle that if you do not know that Q is true, when it is known that P entails Q, then you do not know that P is true.20 (Dretske, 1970: 1016, sub. nuestro).

El conocimiento antecedente sesga nuestros operadores epistémicos para sostener P, si bien la información acerca de P no funge como razón para descartar ciertos casos de no–P, de modo que, de desconocer que sean falsas ciertas alternativas escépticas a P porque las razones justificadoras no permiten descartar ciertas alternativas, no se sigue que desconozcamos P —lo que tales alternativas pueden minar— porque el conocimiento antecedente sesgó el conocimiento hacia P, desconsiderando tales alternativas. De modo tal que esas alternativas desconsideradas serán precisamente las que los operadores epistémicos no podrán penetrar, porque el conocimiento antecedente que asegura las presuposiciones de P hace descartar dichos acusativos oracionales.

A partir de allí, Dretske avanza hacia una caracterización de Conocer P, que incluye como rasgo central la operación del conocimiento antecedente. Para ello, introduce una diferencia entre constatar un hecho, por ejemplo "Brenda no ordenó el postre que estaba incluido en el menú", y situar un hecho en un contexto explicativo de hechos relacionados con el hecho constatado. Estos contextos "serve to define what it is that is being explained" (Dretske, 1970: 1021).21

De ese modo, explicar P supone:

E1) reconocer un hecho (Brenda no ordenó el postre que estaba incluido en el menú).

E2) fijar un rango de alternativas (del hecho) relevantes (según el conocimiento antecedente), las que serán "alternative that might have been realized in the existing circumstances if the actual state of affairs had not materialized" (Dretske, 1970: 1021).22

Mientras que la constatación es única, la ubicación del hecho en un rango de alternativas relevantes no lo es. En efecto, podemos considerar varios rangos de alternativas relevantes para el hecho reconocido. Entre las probabilidades puede ocurrir lo siguiente:

1) Brenda no pidió el postre porque estaba saciada o estaba a dieta o es diabética o no le gustan algunos de los componentes y, por ello, omitió pedirlo antes que, en oposición a o en vez de (rather than, as opposed to, or instead of) solicitarlo y dejarlo a un lado.

2) Pero Brenda no dejó de pedir el postre porque éste se sirva luego de la comida o porque se sirva en vajilla separada o porque era más barato que si lo pedía fuera del menú, etcétera, y por eso omitiera arrojárselo al camarero o llevárselo a su mascota.

Explicamos el hecho constatado por medio del contraste (1): "No pedir el postre / Pedir y dejarlo a un lado", y no por medio del contraste (2): "No pedir el postre / Pedir y arrojarlo por la cabeza al camarero", porque nuestras presuposiciones garantizadas por el conocimiento antecedente son que Brenda es una persona normal y no una maniática a la que le guste que le sirvan el postre mezclado con la guarnición o molestar a los camareros. Si cambia el contraste y se introduce otro conjunto de alternativas relevantes —es decir de conductas posibles que Brenda omitió— cambiará lo que cuente como explicación del mismo hecho reconocido, es decir, si, en vez de no ordenarlo, Brenda hubiera ordenado el postre y se lo hubiera tirado por la cabeza al camarero, no diríamos que estaba saciada o a dieta o que sea diabética, y en ese caso conocer que Brenda está saciada o está a dieta o es diabética no nos ayudará en nada para explicar lo que Brenda hizo. En resumen, en (1) y en (2), Brenda omitió comer el postre y, sin embargo, las explicaciones de lo que hizo son diferentes.

En estos casos, los operadores epistémicos sólo penetran en el conjunto de alternativas relevantes:

To know that x is A is to know that x is A within a framework of relevant alternatives, B, C, and D. This set of contrasts, together with the fact that x is A, serve to define what it is that is known when one knows that x is A. One cannot change this set of contrasts without changing what a person is said to know when he is said to know that x is A.23 (Dretske, 1970: 1022)

Si S conoce que x es A, y x es A implica lógicamente que x no es B o x no es C, entonces S conoce que x no es B, o conoce que x no es C, pero si K no está en el conjunto contrastivo de x es A, entonces aunque x es A implique lógicamente x no es K, el predicado conocer no penetrará K y no se seguirá que S conoce que x no es K —y, por ende, no se generará ningún argumento escéptico contra la pretención de que S conoce que x es A. Dretske resume su posición así: "the operator will penetrate only to those contrast consequences which form part of the network of relevant alternatives structuring the original context in which a knowledge claim was advanced" (Dretske, 1070: 1023).24

Así, en el marco de una crítica al escepticismo, Fred Dretske llega a un análisis contextual del conocimiento y, en su propuesta, contexto tiene un significado preciso: dada una formulación de conocimiento S conoce que x es F, su contexto se determina del siguiente modo:

• C1 S conoce ciertos hechos generales sobre el mundo, por ejemplo "El mundo es tal y cual" y "Los F son tal y cual" y "El ser F de x es tal y cual".

• C2 Los hechos generales sobre el mundo garantizan ciertas presuposiciones sobre x y el ser F, por ejemplo que los F y el ser algo de x sean tal y cual y no de otra manera.

• C3 El conjunto de presuposiciones sobre x fija un conjunto de alternativas posibles al ser F de x, por ejemplo que x no sea G, o no sea H. .

• C4 El conjunto de presuposiciones sobre x descarta otro conjunto de alternativas irrelevantes al ser F de x, por ejemplo se descarta que x no sea U o W.

• C5 En ese contexto específico —cuyos elementos son los anteriores— S conoce que x es F por contraste con el no ser G o no ser H, pero no por contraste con no ser U o W.

• C6 Fijado ese contexto los operadores epistémicos penetrarán sobre x no es G o x no es H, y no sobre x no es U o x no es W.

El conocimiento antecedente no es —como en la historiografía whig— el depósito de verdades previas, lo que es desmentido por un mínimo análisis de la historia de las ciencias, sino que fija las direcciones de encuesta de los procesos de recolección de información aplicable a la solución/respuesta de una hipótesis/pregunta formulada. En ese sentido el conocimiento antecedente fija un conjunto de trayectorias temporales sesgadas que determinan contenidos de las métricas, formalismos, axiomatizaciones y reglas metodológicas que fijan el conjunto de contrastes alternativos relevantes para sostener que S conoce cierto ítem y no otro ítem alternativo.25

Hasta aquí la descripción de la teoría de Dretske. No nos interesa su tesis general, sino la concepción de conocimiento que propone, pues —como señalaremos— ésta permite explicar la operación de los filtros epistémicos aplicados a modelos no estándares, incluso en grado extremo. En lo que sigue examinaremos la operación de tales filtros a partir del estudio de un caso de disidencia epistémica: el caso de la homeopatía.

 

LA DISCIPLINA LLAMADA HOMEOPATÍA

Existen numerosas escuelas médicas que se presentan como distintas a la medicina oficial —en el sentido que es la medicina enseñada en las facultades de Medicina y es reconocida por la oms—, las que se llaman genéricamente Medicinas Complementarias o Alternativas (MCA). En general, las MCA plantean una variedad de problemas de filosofía de las ciencias, por ejemplo:

i) ¿Cuál es la naturaleza de la disidencia que hay con la medicina estándar y qué cosa es la llamada medicina estándar?

ii) ¿Cuáles son los criterios de demarcación entre medicina estándar y medicina no estándar?

iii) ¿Qué alcance puede tener el pluralismo en medicina?

La primera cuestión que se debe establecer es: ¿de qué cosa son alternativas o complementarias las MCA? En general, se sostiene que éstas son alternativas/complementarias de la llamada medicina alopática, expresión que es completamente confusa. Veamos un poco de qué se trata.

En contra de una imagen muy difundida, la medicina actual no es la continuación de una larga tradición y de una larga experiencia. Por el contrario, aquello que llamamos medicina en la actualidad tiene su periodo de constitución a finales del siglo XVIII y mediados del siglo XIX; a partir de la invención del hospital en el siglo XVIII, existe la posibilidad de efectuar observaciones cadavéricas sistemáticas y se establece la anatomía patológica macroscópica tisural —la obra de François Xavier Bichat (Francia, 1771–1802)—. Ésta es renovada a partir de la formulación de la teoría celular como teoría central de las ciencias biológicas —la obra de Theodor Schwann (Alemania, 1810–1882)—, y gracias a su establecimiento se desarrolla la anatomía patológica celular —la obra de Rudolf Virchow (Alemania, 1821–1905).

De ese modo, queda establecido el escenario para la constitución de la medicina actual: la especificación de los niveles orgánicos–tisurales–celulares permitió la mayor revolución en las prácticas humanas de contención y reversión de los padecimientos humanos, al permitir la constitución de la moderna tecnología químico–biológica. Es en este momento que la medicina adquiere su forma actual, por obra e influencia del programa que lleva a cabo Paul Ehrlich;26 de modo que podemos caracterizar la medicina actual como la medicina ehrlichiana: en ella la química estándar tendrá una centralidad en la nosografía, el diagnóstico y la terapéutica. Podemos caracterizar esa estructura mediante el siguiente diagrama:

El nivel químico define la medicina actual —basta imaginar qué sería de la práctica médica si el complejo industrial químico–farmacológico cerrara sus puertas—. La ciencia química es un dominio determinado de estudio que tiene como centro la teoría de los enlaces químicos, que se relaciona con un conjunto de teorías con un nivel de corroboración cualitativa, un soporte inductivo y un éxito tecnológico sin precedentes en la historia.

A su vez, la medicina incluye numerosas teorías biológicas —la teoría celular, la teoría de la evolución, las teorías taxonómicas— que configuran otra red teórica que se suma a las teorías químicas, con cierta independencia relativa, con ciertas complejidades en las métricas27 y sin el aparato lógico–algebraico presente en las teorías químicas. Y, por último, la antropología exhibe una completa dispersión de escuelas y teorías que no suponen ni siquiera un vocabulario mínimo común. En esta estructura de relaciones de niveles, cada nivel inferior funge como antecedente determinante de estados y procesos del nivel superior. En ese cuadro, el vocabulario médico recorre los tres niveles: obtiene una operatividad precisa en el nivel químico–biológico, se desarrolla en una multitud de aplicaciones y teorías bio–antropológicas28 y culmina en complejas instituciones jurídicas y sociales en la dimensión estrictamente antropológica.

Podemos precisar esta sub–estructura basal apelando a la categoría de Modelo Médico Hegemónico29 (en adelante MMH) para desarrollar con detalle aquello que en la literatura de análisis de las MCA se denomina —incorrectamente— medicina alopática.30 En ese sentido, podemos caracterizar los rasgos básicos del MMH:

• (MMH1) el biologicismo: supone la reducción de todo el vocabulario disciplinar, de los modos de aprendizaje, de los procesos de prevención y de curación a una disciplina general con un estatus académico–institucional preciso: la biología —en el que las teorías químicas operan como teorías de fondo.

• (MMH2) el ahistoricismo: las series epidemiológicas son de corta duración y se miden sobre variables biológicas concebidas como trayectorias temporales de corta duración —intrageneracionales.

• (MMH3) el carácter asocial: los cuerpos puramente biológicos mantienen relaciones biológicas y químicas con un entorno material (físico–químico) y la dimensión subjetiva aparece como epifenómeno de dicha interacción soma–ecosfera.

• (MMH4) la medicalización: todas las conductas humanas anómalas o los reportes de padecimiento psíquico son considerados en el marco de la oposición químico–biológica normal/patológico, y las patologías serán consideradas bajo la categoría de enfermedad = desbalance o anormalidad exclusivamente químico–biológico, generando taxonomías para estas conductas y estableciendo la competencia monopólica del profesional médico en su tratamiento.

• (MMH5) el atomismo del paciente: la etiología de los problemas de un paciente se fija en su estructura biológica individual, con prescindencia de estructuras molares en las que dicho individuo esté inmerso de modo irreducible.

• (MMH6) la quimización de la terapéutica: los procesos de curación están fundados en recursos farmacológicos que se diseñan, se prueban y se consideran operativos a partir de la serie reductiva central de MMH: sujeto enfermo cuerpo físico en desplazamientos físicos estructura biológica individual conjunto de órganos estructuras tisurales estructuras químico–moleculares.31

Según se considere una u otra condición, tendremos una familia de MCA diferente (por ejemplo la mayoría de las escuelas médicas MCA aceptan MMH2 y variedades de MMH5; muchas difieren en MMH6 y en aspectos de MMH1. La influencia de las disciplinas psico–dinámicas ha generado versiones del MMH que relativizan o reforman MMH5). Este punto permite ver que declararse una escuela médica alternativa o complementaria —especialmente en el primer caso— no supone ser completamente diferente del MMH, sino que, por el contrario, la mayoría de las MCA comparte núcleos básicos del MMH.

Una de las MCA más importantes por su extensión y su influencia en las maneras en que los sujetos que padecen afrontan los tratamientos de sus padecimientos es la llamada medicina homeopática, la que en su autopresentación se diferencia en modo total con el MMH, en casi todos los niveles en que se puede analizar una escuela médica —pronóstico, tratamiento, síntomas y enfermedad:

Más allá que la falaz homogenización del MMH bajo el rótulo medicina alopática, que es simplemente errónea casi punto a punto,32 el núcleo de la Escuela Homeopática es la farmacopea homeopática que impone el rechazo de MMH1 y MMH6. Es éste el núcleo de la disidencia y de la hostilidad que genera la homeopatía en los círculos racionalistas33 y precisamente en él reside el carácter disidente que tiene la medicina homeopática.

La farmacopea homeopática se funda en dos principios centrales llamados leyes (si bien este nombre no guarda relación alguna con lo que suele denominarse ley en la filosofía de la ciencia):

LEY DE SIMILITUD (Similia similibus curantur). Esta ley está en la base de la formulación de Samuel Hahnemann: el remedio propio para la enfermedad de un paciente es la sustancia que —administrada en dosis altas— es capaz de producir en una persona sana los mismos síntomas que sufre un paciente enfermo y, administrada en dosis infinitesimales, produce la curación del enfermo.

LEY DE DOSIS MÍNIMAS. Este principio sostiene que la disolución extrema maximiza las capacidades curativas de la sustancia y elimina sus posibles contraindicaciones.

De acuerdo con tales principios, la preparación de un específico homeopático supone:

1) Hallar una sustancia X que en un sujeto sano produzca un conjunto Ù de síntomas a de grado de dilución D1 (efecto macro enfermedad).

2) Generar el específico homeopático a partir de los siguientes pasos:

• Se produce la Tintura Madre de X: la sustancia X pura.

• Se toma una porción de X disuelta en 99 porciones de un solvente —agua, alcohol o lactosa— y se agita por lo menos 100 veces en un tiempo y de un modo preciso —la llamada dinamización—. Esta primera disolución se llama 1CH (Primer Centesimal Hahnemanniana).

• A partir del 1CH el proceso se repite. En suma, se toma una porción de una disolución xCH, y 99 partes de solvente, se dinamiza y se obtiene un grado x +1CH.

• El proceso culmina cuando se llega a potencias de 30CH, es decir, el preparado final tiene una parte de fármaco por cada 1 000 000 000 000 000 000 000 000 000 000 partes de agua (1x10.30 "uno por diez a la potencia 30"), pudiendo requerirse medicamentos de 50CH y hasta 100CH.

Una vez generado el específico homeopático, se aplica —seleccionando la disolución propia— en aquel paciente que presenta el conjunto de síntomas y se espera que la X a 30CH revierta dicha situación.

Aquí comienza el problema: en efecto, a estas magnitudes de disolución, el soluto no existe y, en este punto, las disoluciones hahne–mannianas no son soluciones "químicamente" clásicas en absoluto, pues a 30CH ya se viola la condición de Avogadro que determina el número mínimo de moléculas de un soluto en un solvente para decir que estamos ante una solución que tenga eficacia causal por la presencia del soluto. Por consiguiente, si se acepta la eficacia material de algún tipo de la farmacología homeopática, habrá que aceptar que la ley de los infinitésimos presupone una química no avogadriana y, en este punto, habrá dos problemas que debería superar dicha química:

(Pr. I) Por un lado, el soluto X estará involucrado en muchos otros procesos químicos, además de generar . Las variaciones de escala de soluciones de X deberían tener efectos en estos procesos químicos, de modo que debería haber una teoría general de las hiper–soluciones, esto es, soluciones que violan la condición de Avogadro sin perder efectividad material.

(Pr. II) Por otro lado, el supuesto efecto material no avogadriano —ya que la homeopatía reclama que no hay efecto placebo— supone una noción de causalidad material no clásica. En efecto, se dice que X puro o una solución de X + excipiente neutro causan materialmente :

R1: La sustancia X en una dilución D–1 = Efecto de Macro–enfermedad.

Pero se postula que las soluciones disminuidas tienen menos efectos hasta que la desaparición clásica de la solución —o sea la hiper–solución— causa el efecto contrario, esto es:

R2: X a D–2 ¿? reversión de .

Con esto introducimos una noción de casualidad H en la que no sólo habrá una correlación entre la cantidad de sustancia y la intensidad del efecto —como supone la causalidad química estándar—, sino que los efectos se revertirán a escala de hipersoluciones.

Por consiguiente, (Pr. I) y (Pr. II) ponen en cuestión cualquier idea de eficacia material que se postule para la farmacopea homeopática, que afirma que X tiene eficacia causal a escala sub–avogadriana (contra Pr. II) y en un único caso (contra Pr. I).

La comunidad homeopática ha reconocido esta dificultad, ya que no plantea que la farmacopea homeopática sea milagrosa, sino que le atribuyen una causalidad no estándar, pero objetiva. El problema es cuál interpretación material se ofrecerá de dicha casualidad material no estándar.

 

ANÁLISIS DEL CASO DE LA HOMEOPATÍA

¿Qué es lo que actúa, dado que, en este tipo de diluciones, la probabilidad de encontrar una sola molécula del principio activo es absolutamente despreciable, y cómo actúa? Los homeópatas reconocen que su farmacopea tiene un problema grave, por ejemplo:

Por una simple operación aritmética, se puede ver que... cuando el proceso de dilución se ha realizado 23 veces sucesivas, carece de toda posible molécula de soluto (la sustancia en dilución). Aquí es precisamente donde comienza el misterio, porque ya no es posible explicar la supuesta acción de la "dilución homeopática" sobre tejidos humanos o animales (incluso vegetales), a base de las leyes de la Farmacología —y, en último término, mediante las leyes de la Química—. Si la acción no es responsabilidad de las moléculas (inexistentes) del soluto —porque las únicas moléculas que persisten son las del agua—, es a éstas donde debemos dirigir nuestra mirada en busca de una (nueva) explicación. (Gebauer, 2002)

Así, esta nueva explicación se hará postulando algún modelo físico o químico que explique la eficacia de las hipersoluciones y que permita algún tipo de contraste experimental o cuasi–experimental, de modo tal que ofrezca una química no estándar que tenga como caso a la química avogadriana y que supere la objeción de la causalidad anómala. Algunos de dichos modelos son los siguientes:

I) Gabriel Hernán Gebauer (2002) ha abordado el problema de la naturaleza de las disoluciones hahnemannianas, intentando aplicar la metodología epistemológica estándar —falsacionista cum inducción estadística en diseños experimentales y análisis de correlación— para dar cuenta de la restricción estándar, e intenta un modelo neo–avogadriano, esto es "Porque la complejidad estructural así adquirida por el solvente —el agua— debe estar relacionada, de alguna forma, con el soluto. Posteriormente, el soluto desaparece, pero no sin antes dejar en el solvente algún cambio perdurable (asociado con el aumento de la complejidad)" que determine nuevas propiedades químico–clásicas del solvente —agua— que den cuenta de la eficacia causal de la farmacopea homeopática.

II) Torsten Svensson ha sostenido que —dada la restricción de la química avogadriana—, "si los adversarios de la homeopatía dicen que no se puede demostrar actividad química alguna en el remedio, tienen toda la razón. Porque la homeopatía no es un proceso químico como la medicina tradicional o natural, sino un proceso físico".34 Y ese carácter físico estaría dado por la operación de ciertas partículas: "Aquí tenemos la diferencia fundamental entre la homeopatía y la medicina tradicional. La homeopatía trabaja sobre lo que mantiene nuestro cuerpo unido... las partículas portadoras de energía: en nuestro caso, el fotón". Así, la disolución y dinamización incorporan energía fotónica que sería del mismo tenor que aquella que está perturbada en el paciente —lo que Hahnemann llamó "dynamos o fuerza vital".

III) Jacques Benveniste (1989) envió un artículo a la revista Nature —que lo publicó con reservas—, dando cuenta de una serie de experimentos sobre degranulación de basófilos disparada por anticuerpos diluidos a escalas muy extremas, a niveles de los centesimales hahnemannianos; la explicación que proponía el autor era que en el proceso de dinamización la información que portaba el soluto se trasmitiría al solvente —agua en este caso—, ya sea por la determinación de una red indefinida de enlaces de puente de hidrógeno o por medio de campos eléctricos o magnéticos. La explicación propuesta por Benveniste en el mismo artículo es que la información específica de una sustancia se trasmite en el proceso de agitado de la disolución al agua, de modo que la información química que contuviera el soluto sería emitida por éste y almacenada en las moléculas del solvente (agua).

IV) Jacques Benveniste (1998) ofreció una segunda explicación, más radical en su rechazo de la química avogadriana, y ha sostenido que "En nuestro laboratorio, esta investigación ha alcanzado ahora un punto más allá de la 'memoria del agua'. Creemos que hemos develado la hasta la fecha desatendida naturaleza física de la señal molecular, la cual consiste en ondas en el rango kiloHertz, las cuales hemos grabado en computadoras, y enviado a cualquier destino de nuestra selección vía internet".35 En ese sentido sostuvo que:

Therefore, one may hypothesize that biological systems function like radio sets, by coresonance. If you tune a receiver to 92.6 MHz, you tune in Radio–This, because the receiver and the transmitter vibrate at the same frequency. If we change the setting a little to, say, 92.7, we no longer receive Radio–This, but Radio–That instead. These advances in understanding the inmost mechanism of molecular recognition and signaling do not overturn the science of biology, and even less those of physics and chemistry. We have taken nothing away from classic descriptions, but only taken a step forward by adding to the present body of knowledge. This is the normal course of scientific progress, and there is no reason for it to provoke imprecations and anathema".36

V) Aplicando el principio de similitud, la homeopatía utiliza los efectos terapéuticos de las sustancias, atenuando su toxicidad a través de muy pequeñas dosis hasta un nivel denominado "infinitesimal". Esta división tiene fundamento en el holograma que, a pesar de que se divida, siempre muestra la misma imagen en el sentido de una curva que presenta la misma configuración a cualquier escala —el fractal—. De la misma forma, las sustancias pueden ser divididas hasta el infinito sin perder su valor terapéutico y, de ese modo, se explicaría la eficacia terapéutica de la farmacopea homeopática, esto es, "La Homeopatía Unicista se vale de medicamentos que contienen energía pura. En esa energía tienen un holograma de todo lo que hay que equilibrar en la persona. Actúa bajo principios físicos y no químicos".37

En todos los casos nos encontramos con las siguientes cláusulas:

• Se emplean categorías clásicas —holograma, nivel físico, energía fotónica, emisión radioeléctrica— y se declara que se apelará a mecanismos químicos que serían consistentes con la química avo–gadriana y al mismo tiempo les permitiría rechazar MMH1 y MMH6.

• Dado que las hipersoluciones trabajan en otro nivel que el de las soluciones clásicas, la evidencia que se pueda ofrecer desde el nivel químico avogadriano no sería evidencia desconfirmadora y, por ello, no ofrecería desafío fundamental (esta cláusula es importante porque intenta señalar que el problema no es de cantidad de evidencia confirmatoria, sino de nivel de abstracción de dicha evidencia, ya que existe el debate en el nivel de desviación de la explicación placebo, un nivel de abstracción que no estamos considerando en este trabajo).

• Se apela a la eficacia terapéutica en la medicina veterinaria para reforzar la presencia de evidencia confirmadora de la eficacia material de las hipersoluciones.

Podemos poner esta oferta de modelos en el marco que propusimos en el primer apartado: la comunidad de homeópatas señala un recorte disciplinar nuevo: los efectos terapéuticos de un tipo de hipersolución —la farmacopea homeopática— y propone diversos modelos que explicarían dicha eficacia material. En ese sentido, interpretaciones caritativas de esta actividad —así como las interpretaciones que ofrezcan las filosofías posmodernas de las ciencias— pondrían a esta actividad como un ejercicio de investigación creativa —el polo de la disidencia— que comienza por una pluralidad de modelos —dado que D4 es la actividad menos protocolizada—, que, una vez formulada con precisión interna, permitiría el desarrollo de actividades de recolección de información en condiciones crecientemente protocolizadas —D3 D1—. Sin embargo, y en contra de la presunción dadaísta, D4 también es una actividad protocolizada, precisamente por su carácter contextual preciso —en el sentido avanzado por Dretske—. En efecto, podemos volver a la noción de contexto: así como en ese caso, para afirmar conocimiento de algo, deberíamos reconocer alternativas que descartamos contra las que asentamos el conocimiento, también la modelización determinaría de qué es alternativa o variación el modelo propuesto, pues habrá modelos alternativos extremos que ni consideraremos, ya que estarán fuera del sesgo. Así, la modelización supondrá:

• M1: S tiene teorías aceptadas (= conocimiento antecedente) evaluado bajo algún módulo metodológico determinado por evidencia recopilada en D1–D3. ( C1)

• M2: El conocimiento antecedente garantiza (grant) un conjunto de presuposiciones sobre las entidades y estados de cosas del dominio disciplinar. ( C2)

• M3: El conjunto de presuposiciones fija un conjunto de modelos alternativos que se pueden postular para explicar/predecir/comprender los eventos y estados de cosas del dominio disciplinar = Principios de Clausura Disciplinar —física, química, biológica. ( C3)

• M4: El conjunto de presuposiciones fija el conjunto de alternativas irrelevantes hacia los cuales no se pueden modelizar. ( C4)

• M5: En ese contexto específico, el modelo tendrá validez epistémica por contraste con las posibilidades cuya invalidez se conoce efectivamente (sesgo positivo) y no por contrastes con las posibilidades no consideradas (sesgo negativo). ( C5)

• M6: C6.

No se trata de una mera traslación desde la teoría dretskeana del conocimiento: el punto central es mostrar que los filtros epistémicos operan fijando contextos en los cuales se desarrolla el conocimiento disciplinar.

El contexto actual del conocimiento médico —el MMH— está determinado por los presupuestos que surgen del conocimiento celular y tisural schwanniano + la nosografía y terapéutica erlichiana, conocimiento que a su vez está sesgado por la teoría atómico molecular —en sus versiones presentes—, de modo que cada formulación de conocimiento médico contendrá al menos tres tipos de presuposiciones anidadas unas con otras: presuposiciones químicas, presuposiciones biológicas y presuposiciones antropológicas; en la medida en que los homeópatas sostienen que la eficacia de las hipersoluciones es real y no putativa, deberemos descartar el nivel antropológico como involucrado en esta cuestión.

Conocemos que el padecimiento humano tiene —por lo menos— la estructura que sostienen las teorías celular tisurales schwanniana y estándar y erlichianas: esto es, si llamamos F a la conjunción de los predicados teóricos y la variable x recorre los dominios disciplinares de tales ciencias, ello significa que el conocimiento del padecimiento humano (x es F) se dará en un contexto: precisamente el contexto determinado por los presupuestos de la anatomía y fisiología patológica y, desde allí, penetrará ciertas alternativas (x es no–G y x es no–H) y a su vez no penetrará en otros casos, por ejemplo, descartará posibles explicadores que apelen a una casualidad material no estándar como la supuesta en las hipersoluciones; esto es, una casualidad material que coincida en todo punto con la de las soluciones y se revierta en hipersoluciones.

Si se proponen modelos explicativos que permitieran explicar las hipersoluciones, la pregunta es ¿sobre qué bases se aceptan o rechazan dichos modelos que, por definición, no surgen de diseños experimentales, sino que suponen una construcción teórica? Preguntar esto equivale a preguntar esto otro: ¿sobre qué base se pueden filtrar tales modelos, dado que, al ser constructos hipotéticos, no poseen evidencia confirmadora, sino que son expedientes que —una vez aceptados— permitirían desarrollar los correspondientes D1–D3?

Si aplicamos el principio epistémico de caridad y aceptamos que los informes que ofrecen los practicantes de la homeopatía sobre la eficacia observada de su farmacopea —la que puede tener explicaciones antropológicas que en este análisis descartamos— son informe bona fide y, además, aceptamos que, prima facie, debería partirse de un enfoque pluralista: esto es, aceptamos la posibilidad de variaciones y disidencias parciales en el MMH que no se anulen entre sí; entonces se debe examinar la cuestión de los modelos no estándares que se ofrecen para dar cuenta de la posible química de las hipersoluciones.

En la organización del campo disciplinar de las teorías del padecimiento humano, la teoría atómico molecular desempeña un papel central, no como fundamento —pues esto estaría reñido con el enfoque pluralista que sostenemos—, sino como conocimiento antecedente que fija el conjunto de alternativas relevantes e irrelevantes para un conocimiento dado: el conocimiento celular schwanniano y tisural propio del nivel biológico.

Ahora bien, aceptamos como punto de partida que los modelos fotónico y químico–digital y de memoria por polarización y de capacitación holográfica son posibilidades operativas en las hiper–soluciones; la cuestión siguiente es: ¿cuán metodológicamente fundado es un rechazo de dichos modelos sin someterlos, uno a uno, a un proceso específico de recolección de información D1–D3? Pues bien, tales modelos no estándares son rechazados como epistémicamente inválidos. Ese rechazo es racional, metodológicamente garantizable y, sin embargo, no se funda en evidencia desconfirmadora —la que exige la recolección de información, tarea que no se ha hecho en este caso—. Ya que el caso es que no se trata de un rechazo fundado en evidencia desconfimadora o no, sino de un rechazo fundado en filtros epistémicos.

Dicho de manera más rigurosa, lo que opera en cada nivel de formulación de conocimiento involucrada en las teorías sobre el padecimiento humano son principios de clausura física —M3—. Ésta será la noción crucial en la definición de los contextos epistémicos que definen cada conocimiento disciplinar. Introducido en el seno de la filosofía de la mente, en particular en el marco del análisis del fisicalismo, el principio de clausura física, o principio de clausura material de las ciencias físicas, sostiene que cada efecto físico tiene una causa física o, mejor dicho, que cada efecto determinable por medio de categorías de las ciencias físicas tiene una causa determinable por medio de categorías físicas. En ese sentido, como el lenguaje categorial se caracteriza por la existencia de redes de relaciones semánticas —taxonómicas, mereológicas, de intensión y extensión y de similitud o diferencia—, el léxico disciplinar de las ciencias físicas forma una red semántica que determina las presuposiciones (M2) que permiten sesgar las verdades formuladas en la disciplina (M3), lo que equivale punto por punto con el dictum dadivsoniano que la coherencia categorial promueve la correspondencia proposicional. Por ello, la aplicación de categorías físicas como fotónico y químico–digital y de memoria por polarización y capacitación holográfica deberá incluir todo el plexo de relaciones de coherencia.

De ese modo, se puede interpretar que la noción de conocimiento contextual no sólo incluye la demarcación —los límites o alcance— del contexto epistémico, sino de las estructuras semántico–categoriales que determinan los sesgos y el conjunto de alternativas relevantes que serán categorialmente rechazadas sin evidencia desconfirmadora. O sea, el saber —en un cierto módulo metodológico— que x es F penetra el saber que x es no–H, sin que tengamos evidencia a favor de x es no–H. En el caso de los modelos propuestos, no sabemos si pueda o no haber hipersoluciones y si su causalidad material será no estándar, y no tenemos evidencia que desconfirme tales posibilidades, pero filtramos —sesgamos desde las presuposiciones que tiene el vocabulario categorial de la teoría celular tisural schwanniana + nosografía y terapéutica erlichiana— los modelos que vamos a dar por conocidos y aquellos cuya negación vamos a dar por conocida —precisamente los modelos de eficacia de las hipersoluciones que se han propuesto hasta el presente.

No sabemos si es posible que haya o no procesos a nivel subcelular o nivel submolecular que puedan tener consecuencias no avo–gadrianas —o sea que haya hipersoluciones—, pero de la carencia de evidencia que permita rechazar una posibilidad no se sigue que su rechazo sea arbitrario; por el contrario, el rechazo será perfectamente racional en los filtros epistémicos —contextuales— que tiene una disciplina en una cierta situación.

Y efectivamente, un árbitro no tiene evidencia desconfirmadora o evidencia favorable a la negación de un modelo propuesto, sino que tiene fijo el contexto —tal como se lo define en C1–C6— y, desde allí, puede filtrar el modelo al considerarlo una alternativa relevante al que penetran los operadores epistémicos de dicho contexto.

Y en esa dirección, las propuestas que ofrezcan candidatos a mecanismos que trasciendan la clausura física o química —como una exigencia de interpretación metafórica de fotón o la introducción de fuerzas sin registro material— no será tomada como alternativa relevante y los operadores epistémicos del contexto no las penetrarán, aunque el mundo sea en última ratio como tal propuesta sostenga. Como en la metáfora de la balsa de Neurath, tomamos decisiones desde dentro de lo que consideramos nuestras teorías estándar, incluso la decisión de salir de ella, de abandonarla parcial o totalmente, y no hay forma de llegar a las ciencias desde afuera, con una supuesta inocencia virginal que "abra los ojos", ya que no tenemos forma de contemplar la Realidad tal como ella pueda ser.

Y si se sostiene que hay casuística que, bona fide, parece poner en tela de juicio MMH, la respuesta de esta cuestión es simple: si recordamos que la opción no es medicina homeopática/medicina alopática —un engendro que no existe en ningún lugar—, sino variación de MCA vs. MMH, entonces podemos situar la cuestión: MMH es un conjunto de subestructuras, algunas materiales, otras sociales y otras institucionales; en particular, MMH2, MMH3 y MMH5 parecen ser las estructuras involucradas en la consideración de la supuesta casuística que bona fide se dice que no cabe en MMH: lo que parece es que no cabrían en MMH2, MMH3 y MMH5. Y una medicina que altere estas estructuras no tiene por qué comprometer su infraestructura químico–biológica sólo porque ciertos modelos retóricamente bien escritos pero categorialmente vacuos sean ofrecidos como supuestas alternativas a dicho conocimiento.38

De ese modo, creemos que las nociones de contexto —C1–C6— y de proceso de modelización —M1–M6— permiten elucidar la lógica de la conciliación como lógica de los filtros epistémicos —contextos— desde los cuales los operadores epistémicos contextuales penetran ciertas posibilidades que se rechazan sin evidencia justificadora, sino fundados en la dirección de sendero que tiene el contexto, y dejan de penetrar otras posibilidades sin justificar ese descarte y sin que éste sea una limitación del conocimiento.

 

BIBLIOGRAFÍA

Benveniste, Jacques (1989), Nature 333: 816, junio 30.        [ Links ]

––––––––––(1998), http://www.digibio.com.        [ Links ]

Dretske, Fred (1970), "Epistemic Operators" en The Journal of Philosophy 67, pp. 1007–1023.        [ Links ]

Feingold, Ellen (2004), Psychology Today Magazine, abril, 2004.        [ Links ]

Floridi, Luciano (ed.) (2004), The Blackwell Guide to the Philosophy of Computing and Information. Oxford / New York: Blackwell, 2004, (Glossary art. "Information, semantic").        [ Links ]

Gebauer, Gabriel Hernán (2002), Una nueva teoría acerca de las 'diluciones homeopáticas', en www.homeoint.org/books3/diluciones/index.htm.        [ Links ]

Menéndez, Eduardo (1990), Morir de alcohol. Saber y hegemonía médica. México: Alianza / Consejo Nacional para la Cultura y las Artes.        [ Links ]

Miroli, Alejandro (2004), "La teoría del constreñimiento (mangle) de la práctica: novedad o ilusión" (manuscrito), 27.        [ Links ]

––––––––––(2006), "Un examen de la relación entre escepticismo y epistemología: el caso del llamado escepticismo científico" aceptado para publicación en Selección de trabajos del III Encuentro de Filosofía e Historia de la Ciencia del Cono Sur, AFHIC.        [ Links ]

Svensson, Torsten, en www.torstensvensson.com/Homeopatia.htm.        [ Links ]

AAVV, http://unicista.com/portal.htm        [ Links ]

Varsavsky, Oscar y Carlos Domingo (1967), "Un modelo matemático de la Utopía de Moro" en Desarrollo Económico 26.        [ Links ]

Weber, Max, Ensayos de sociología contemporánea. Barcelona: Martínez Roca.        [ Links ]

 

NOTAS

1 En este trabajo desarrollo algunas ideas que se expusieron en dos trabajos anteriores: Nicholas Maxwell y la noción de relevancia epistémica, publicado en las Actas de las XV Jornadas de Epistemología de la Universidad Nacional de Córdoba, La Falda, y Un examen de la relación entre escepticismo y epistemología: el caso del llamado escepticismo científico, publicado en las Actas de las IV Jornadas AFHIC Buenos Aires, 2006.

2 "Creo que la nueva ciencia explicará cómo funciona la homeopatía... Pero la investigación no es mi problema. Yo deseo curar pacientes. Como médica, en general suprimía síntomas. Ahora realmente curo a la gente". Traducción del autor. En adelante, todas las traducciones son de mi autoría. Agrego que Ellen Feingold es una médica pediatra que dejó la medicina académica por la homeopática.

3 Por lo menos este fue el objetivo de la concepción heredada y de la tradición falsacionista, muy fuerte en los Departamentos de Filosofía de las Ciencias.

4 Entre tales escuelas epistemologías críticas —en especial respecto de la idea de que pueda haber un estándar público de conocimiento objetivo fundado en ciertas capacidades representacionales literales— se pueden señalar: los racionalistas dialécticos (F. Gonseth, G. Bachelard, L. Apostel), las concepciones psicoconstructivistas (E. Morin, R. García, J. Piaget, P. Watzlawick), la escuela socioconstructivista (G. Fourez), los constructivistas biológicos (E Várela, H. Maturana), el programa fuerte de sociología de la ciencia (Barry Barnes, David Bloor), los sociorrelativistas (H. Collins, T. Pinch), la epistemología marxista (L. Althusser, D. Dubarle, A. Badiou), los retoricistas (D. Mc. Clousky), la hermenéutica de las ciencias naturales (P. Heelan), el realismo crítico (Rom Harré, Roy Bashkar, Anthony Lawson). Si bien no es un rasgo común —en particular la hermenéutica— todas estas escuelas contienen alguna tesis sobre la relación de mutuo apoyo entre pretensión de ortodoxia científica y actitud conservadora en materias prácticas.

5 El lector podrá sostener que esta afirmación es un poco fuerte si se le considera en el terreno de las ciencias sociales, en las que las escuelas post–concepción heredadas han sido más influyentes. Si bien no es el lugar para encarar dicha cuestión, considero que si uno defiende una noción de objetividad fundada en capacidades representacionales literales de ciertos instrumentos semióticos —por ejemplo proposiciones, léxicos categóricos, teorías— la afirmación es neutral respecto de qué disciplina sea la que los emplea. El tema es otro si se consideraran capacidades representacionales no literales; o directamente, si se negaran las capacidades representacionales, pero esta cuestión está fuera de este trabajo.

6 Podemos tomar la definición de información semántica que propone L. Floridi (2004). Información semántica:

(1) Débil: Datos bien formados y significativos.

(2) Fuerte: Datos bien formados, significativos y verosímiles.

Esta definición es generada a partir del primitivo Datos. Es un término previo. Floridi ofrece una definición técnica de datos, es decir "a datum is reducible to just a lack of uniformity" (un dato es reducible a una simple carencia de uniformidad) y en orden a esta presentación, Floridi ofrece la siguiente definición diafórica de dato (la palabra diafórica la refiere al término griego diaphora, cuyo sentido refiere, a su vez, a diferencia).

Definición Diafórica de Dato (DDD): Un dato es un evento putativo que da cuenta de alguna diferencia o falta de uniformidad interna a un contexto, en uno de los tres niveles siguientes:

1. Datos como diáfora de re: carencia de uniformidad real, discontinuidades previas a su interpretación epistémicas, equivalentes al noúmeno kantiano, son lo que Floridi llama "fractures in the fabric of being" (fracturas en la fábrica del ser), soporte real de las discontinuidades representadas a algún nivel de abstracción.

2. Datos como diáfora de signo: carencia de uniformidad entre la percepción de por lo menos dos estados físicos, como una carga mayor o menor en una batería, un punto y espacio en una secuencia Morse, una señal variable en una conversación telefónica.

3. Datos como diáfora de dicto: falta de uniformidad entre dos símbolos, por ejemplo las letras A y B en el alfabeto latino.

En esta secuencia, los datos de re hacen posible o causan las señales, y las señales son lo que hace posible las codificaciones de símbolos o diáforas de dicto por medio de sistemas semióticos. De ese modo, adquirir información sobre algún tipo de evento o estado de cosas o proceso real, supone la capacidad de identificar diáforas de signo —diferencias de potenciales, cambios en umbrales, alteraciones de señales, etcétera—. Ello supone identificar ciertos parámetros y determinar ciertas unidades de discriminación de diferencias, las cuales permitirán comparaciones ordinales o cardinales de conjuntos de tales unidades. Como se verá más adelante, todas estas operaciones exigen una red semántico–categorial, pues la información no proviene en unidades atómicas y aisladas, sino en estructuras de contrastes.

7 Un filtro epistémico es un árbitro anónimo o un comité de redacción y la pregunta por la lógica interna no es sino la pregunta por los principios que guían el proceso de toma de decisiones de un filtro epistémico. Este es el ámbito de nuestra investigación.

8 Los diseños cuasi–experimentales se emplean en ciencias sociales, biomédicas y suponen ciertas restricciones a las condiciones protocolizadas estándar de los diseños experimentales —grupo testigo completamente homogéneo, condiciones aisladas de intervención, análisis pre–test y post–test, manipulación de las variables independientes, asignación aleatoria de los individuos a los grupos testigo o experimental, etcétera.

9 El primer conjunto de restricciones para la investigación surgió en el ámbito de la investigación biomédica, luego de la Segunda Guerra Mundial, y se conoce como los protocolos de Nürenberg.

10 Esta era la versión oficial de la economía hasta los años 80. En rigor, hoy existe un movimiento, pequeño pero creciente, de economía experimental que fue reconocido como parte del escenario mainstream con el otorgamiento —en 2002— del Premio Nóbel de Economía a Daniel Kahneman y a Vernon Smith; este último, llamado padre de la economía experimental.

11 Esta definición minimal —compatible con la caracterización ya clásica que hiciera Lionel Robbins de la economía como ciencia de la escasez— sirve para la escuela neoclásica marshalliana, la escuela austriaca, la escuela keynesiana y algunas versiones del marxismo, pero puede haber diferencias, por ejemplo el énfasis de la escuela clásica en la producción de riqueza material restringe la cláusula consumo de satisfactores de escalas subjetivas.

12 Tal vez el ejemplo básico de herramienta modelística en ciencias sociales es el tipo ideal: Tipo Ideal o Idealtyp, introducido por Max Weber para analizar las nociones de acción social, autoridad y burocracia, como un constructo hipotético que nunca refiere a ningún fenómeno social real concreto —o sea que tomado literalmente en grado cero será falso—. Weber lo define de la siguiente manera: "El tipo ideal hace referencia a la estructuración de ciertos elementos de la realidad dentro de una concepción lógica exacta". Es claro que Weber entendía perfectamente el carácter falso–literal de los Idealtyp, pero eran herramientas de investigación social cuando se incluían los niveles de abstracción y algún concepto —intuitivo en el caso de Weber, más técnico en la econometría— de distancia entre niveles de abstracción y el dominio disciplinar —que será el grado cero de abstracción.

13 El ejemplo más interesante de la aplicación no trivial de la herramienta modelística a un dominio ficticio —lo que sería un caso de rizar el rizo— en Varsavstky.

14 Llamado argumento escéptico moderno porque es un argumento que ataca la posibilidad del conocimiento, y se puede filiar hasta los clásicos argumentos cartesianos.

15 Este argumento escéptico es independiente a los argumentos de Gettier que, en rigor, fueron preanunciados por Filón de Larissa, quien sostuvo que puede haber estados de cosas que se conozcan defectivamente, es decir de los que tengamos conocimiento verdadero sin que nos percatemos o sin que sepamos cómo arribamos a conocerlos o sin tener razones para creer en ello. En general, el argumento Filón–Gettier sostiene que la definición tripartida no permite decidir entre conocimiento efectivo y conocimiento defectivo.

16 Dretske sostiene que dado O = "Es extraño que...", bien puede ser que sea extraño que "Juan acierte el primer billete de lotería" y "Juan acierte el segundo billete de lotería", si bien no será extraño en absoluto que Juan acierte uno.

17 "Si esos operadores no fueran penetrantes, muchas de estas objeciones [los argumentos escépticos que atacan C2 a partir de C4] serían irrelevantes".

18 "El punto general puede plantearse de este modo: Hay ciertos presupuestos asociados con un enunciado. Estos presupuestos, aunque su verdad está implicada por la verdad del enunciado, no son parte de aquello sobre lo que se opera cuando operamos sobre el enunciado con uno de nuestros operadores epistémicos. Los operadores epistémicos no penetran estos presupuestos [de modo que] El hecho de que los operadores epistémicos no penetren estos presupuestos es lo que ayuda a hacerlos semi–penetrantes".

19 "Eso no es muy probable" o "¿Por qué harían eso las autoridades del zoológico?"

20 "la pregunta aquí es... si usted sabe que esta hipótesis alternativa [es decir, los animales de la jaula son mulas acebradas] es falsa. Yo no creo que lo sepa. En esto estoy de acuerdo con el escéptico. Difiero del escéptico sólo cuando de esto concluye que, por lo tanto, usted no sabe que los animales en la jaula son cebras. Difiero de él porque rechazo el principio que emplea para alcanzar esta conclusión —el principio según el cual si no sabemos que Q es verdadero, cuando se sabe que P implica lógicamente Q, entonces no sabemos que P es verdadero".

21 "sirve para definir lo que debe ser explicado".

22 "alternativas que podrían haber ocurrido en las circunstancias existentes si el estado de cosas real no se hubiese materializado".

23 "Conocer que x es A es conocer que x es A dentro de un marco de alternativas relevantes, B, C, y D. Este conjunto de contrastes, junto con el hecho que x es A sirve para definir que es lo que uno conoce cuando uno conoce que x es A. No se puede cambiar este conjunto de contrastes sin cambiar lo que se dice cuando se dice que se conoce que x es A".

24 "el operador penetrará sólo en aquellas consecuencias contrastivas que formen parte de la trama de alternativas relevantes que estructuran el contexto original en el que se formula una pretensión de conocimiento".

25 La noción de sesgo epistémico, central en el análisis de Dretske, no ha tenido mucho desarrollo en la filosofía de las ciencias. Entrampada en la discusión Concepción heredada/ Paradigmatismo, la filosofía de la ciencia pareció no reconocer la necesidad de enfoques que rompieran la dicotomía anterior: que reconocieran los efectos del cambio conceptual como paradojas precisas que, sin embargo, podrían resolverse en el marco de teorías del conocimiento que no cayeran en los delirios de las epistemologías posmodernistas. Tal vez Andrew Pickering ha hecho un aporte importante a dicha noción con la tesis del constreñimiento de la práctica y, en particular, con la tesis de las trayectorias temporales de los instrumentos cognitivos (cf. Miroli, 2004), donde analicé críticamente dicha tesis. Sin embargo, en el seno de la economía se ha propuesto una noción precisa que ayuda a la conceptuación de dicho efecto del conocimiento antecedente: la noción de path dependance/dependencia de sendero. Las teorías de los fenómenos de path dependence / dependencia de sendero surgieron en el marco de la economía evolutiva (cf. Geoffrey Hodgson, Richard Nelson y Sidney Winter), en contraste con las explicaciones neoclásicas, mientras que la economía neoclásica sostiene que los procesos económicos progresan hacia un único punto de equilibrio de manera independiente a las condiciones iniciales o los eventos antecedentes. Los economistas evolucionistas sostenían que los procesos económicos pueden converger en diversos puntos de equilibrio y que la selección del equilibrio determinante depende de las condiciones iniciales y los eventos antecedentes y, en ese proceso de progresión hacia un punto de equilibrio no predeterminado, hay eventos accidentales o procesos no predeterminados que sesgan la dirección del proceso de modo que los grados de libertad y márgenes de maniobra de un actor están determinados por su trayectoria temporal. En ese proceso intervienen mecanismos de retroalimentación positiva —vía externalidades positivas— y de sobredeterminación del ganador —efecto bandwagon—, los que hacen imposible la predeterminación del proceso y, al mismo tiempo, le dan una dirección que en determinado punto se torna rígida. En contextos de actores con racionalidad e información limitada, las capacidades de aprendizaje y optimización relativa suponen efectivamente un proceso de dependencia de sendero de las trayectorias temporales. En términos epistémicos, si bien no hay un camino predeterminado hacia un punto de equilibrio epistémico —el mayor ajuste posible de nuestros instrumentos cognitivos al dominio en investigación o en forma más clásica la teoría más simple y verdadera— como lo pretendían las epistemologías positivistas, tampoco habrá una suerte de dadaísmo, como pretenden las epistemologías posmodernistas: el conocimiento está sesgado y es path dependent. Un punto central de la noción de path dependence epistémico es que permite integrar en un único contexto lo que en la filosofía tradicional de las ciencias se distinguía como contexto de justificación y contexto de aplicación. En efecto, en este enfoque, con independencia que una teoría sea verdadera, esté confirmada, tenga evidencia favorable o lo que sea, el éxito tecnológico sesga la teoría —por ejemplo el éxito de las máquinas térmicas sesga la termodinámica clásica—. Es una noción análoga a ésta la que Dretske introduce en el análisis del conocimiento al examinar los ámbitos de penetrabilidad de los operadores epistémicos.

26 Paul Ehrlich (Alemania, 1854–1915, premio Nóbel de Medicina 1908), quien desde 1899 desarrolló sus investigaciones en dirección de la quimioterapia trabajando en la idea —implícita en su tesis doctoral— de que la constitución química de las drogas debería ser estudiada en relación con su modo de acción y su afinidad por las células de los organismos a los que eran dirigidas, tratando de hallar sustancias químicas que tuvieran afinidad con organismos patógenos, configurando aquello que el propio Ehrlich llamó "balas mágicas". La moderna bio–química aplicada resulta de la convergencia, por un lado, del programa de Ehrlich y, por otro, de la teoría tisural–celular y la teoría de las enfermedades infecciosas de Pasteur, Virchow y Koch.

27 Si bien la biología emplea una multitud de métricas específicas —tomadas de la termodinámica, la genética, la química— hay nociones biológicas fundamentales que no tienen métricas propias, por ejemplo la teoría de la evolución —velocidad de especiación, grado de adaptación, etcétera.

28 Por ejemplo la nosografía de desórdenes de comportamiento Diagnostic and Statistical Manual of Mental Disorders o DSM —actualmente en la versión IVR.

29 En Menéndez (1990), la noción de hegemonía que emplea puede tener dos sentidos: un sentido tradicional —como modelo médico que ejerce influencia decisiva sobre los otros o sobre la sociedad a partir de una primacía de facto— o en el sentido gramsciano —en el que la primacía no solo depende de las relaciones institucionales (leyes de ejercicio, dotación de recursos, posiciones laborales)—, sino del sistema educativo, medios de comunicación masiva, creencias religiosas, sistema jurídico que configuran la propia conciencia de aquellos que son influenciados. Así, todos los actores terapéuticos estarían inmersos en el Modelo Médico de un modo tal que tomaría este modelo médico —uno de varios posibles— como la única forma de ejercicio de la medicina.

30 Aun tomando como espacio para el análisis la llamada medicina alopática, ésta no es algo homogéneo y sólo un simplismo enorme reduciría la medicina oficial a dar pastillas: por ejemplo, hay una enorme cantidad de síndromes que no se tratan con medicación, sino con disciplinas paramédicas de intervención práctica y rehabilitatoria (nutrición, foniatría, kinesiología). El seguimiento de los síntomas es central en la determinación histórico–clínica y epidemiológica de las enfermedades. Se proponen variables subjetivas que actúan sobre entidades y procesos químicos claramente clásicos, las prácticas terapéuticas de las disciplinas paramédicas, un mundo físico–químico clásico, y puede haber discusiones violentas en el mismo entorno físicoquímico clásico, por ejemplo la teoría metabólica sobre la Enfermedad de Hansen propuesta por Meny Bergel o los enfoques no infecciosos sobre el SIDA tienen todos supuestos clásicos. Es más, la medicina es una disciplina que está en permanente situación de crisis y renovación de ideas. Cf. la publicación académica Medical Hipotheses, ISSN 0306–9877 Elsevier Inc.

31 Cfr. Menéndez (1990), cap. III "El modelo médico hegemónico: estructura, función y crisis".

32 Por ejemplo, no tiene sentido decir que la enfermedad es irrelevante; los síntomas son alteraciones orgánicas o funcionales sólo contra un marco previo de normalidad y son relevantes porque son procesos químico–biológicos del organismo —o del sistema organismo/ambiente—: muchas veces no desaparecen o, por el contrario, son lo único en lo que se puede intervenir y, por el contrario, numerosas patologías son asintomáticas, en condiciones de diagnóstico ideales el actor terapéutico tendrá que tener un modelo singular total del cuerpo–paciente o del cuerpo–paciente/ambiente; en muchos casos no se medica en absoluto sino que se altera el balance alimentario o se introducen cambios comportamentales, se administran estrategias de autocuración o de rehabilitación, etcétera.

33 El modelo de círculo racionalista —copiado en casi todo el mundo— ha sido el Committee for Skeptical Inquiry (CSI), ex Committee for the Scientific Investigation of Claims of the Paranormal (CSICOP), fundado en Estados Unidos por el filósofo Paul Kurtz, el físico Carl Sagan y el mago profesional James Randi, entre otros. En general, los círculos racionalistas han hecho de la denuncia del carácter pseudocientífico de la homeopatía uno de sus objetivos más recurrentes. La mayoría de los círculos racionalistas inspirados en el modelo CSICOP asumen una idea ingenua de ciencia fundada en la metodología inductivo–positivista y ofrecen una interpretación extremadamente poco caritativa de las propuestas de la comunidad de homeópatas. He expuesto algunas ideas críticas de este estado de cosas en Miroli (2004). Este trabajo puede entenderse como una continuación de aquél.

34 Cfr. donde el autor expone su elucidación de la eficacia de la farmacopea hanhemanniana.

35 Cfr., cuyo epígrafe es una declaración de principios en esa dirección: de la memoria del agua a la biología digital.

36 "Por consiguiente, se puede hipotetizar que los sistemas biológicos funcionan como emisoras de radio, por corresonancia. Si usted sintoniza un receptor a 92.6 MHz, sintoniza en Radio–Uno, porque el receptor y el transmisor vibran en la misma frecuencia. Si cambiamos la sintonía un poquito, digamos 92.7, no recibimos más Radio–Uno, sino Radio–Dos. Ese avance en la comprensión de los mecanismos internos de reconocimiento y señalización molecular no refuta la ciencia de la biología, y menos aún los de la física y la química. Nosotros no hemos diferido en nada de las descripciones clásicas sino que fuimos un paso más allá al añadir el presente cuerpo de conocimiento. Este es el curso normal del progreso científico y no hay razón para que ello provoque imprecaciones o anatema".

37 Cfr. http://unicista.com/portal.htm.

38 La realización de ensayos prescriptos por los protocolos de experimentación clínica de medicamentos tiende a determinar tres cosas: (i) que el específico no produzca daño, (ii) que el específico efectivamente tenga los efectos químicos que pretende la unidad que lo desarrolló y (iii) que se puedan determinar los umbrales de efectividad —antagonismos, contraindicaciones y demás—. Al precisar el segundo fin, los ensayos de doble sesgo buscan determinar si el específico es un placebo o no. Pero estos protocolos no permiten determinar el quantum de efecto placebo que tiene el propio específico, además de efecto químico. Es necesaria una famacodinámica conductista para tal examen. Pero como ello está fuera de las organizaciones como la FDA y la ANMAT, no es objeto de investigación académica.

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons