Home   |   Structure   |   Research   |   Resources   |   Members   |   Training   |   Activities   |   Contact

EN | PT

BrBRHUHu0102-69092004000200006

BrBRHUHu0102-69092004000200006

variedadeBr
Country of publicationBR
colégioHumanities
Great areaHuman Sciences
ISSN0102-6909
ano2004
Issue0002
Article number00006

O script do Java parece estar desligado, ou então houve um erro de comunicação. Ligue o script do Java para mais opções de representação.

A saga do ideal de boa ciência

O colapso do ideal baconiano de boa ciência, consumado com o advento da teoria da relatividade, o subseqüente insucesso dos empiristas do Círculo de Viena em estabelecer um ideal substituto e a pertinência da crítica de Pierre Duhem ao ideal racionalista levaram a reflexão sobre que é boa ciência a subordinar-se a uma análise naturalística do processo de aquisição de conhecimento ou, simplesmente, a dissolver-se em uma sociopsicologia do conhecimento. Gostaria de sugerir que nenhuma dessas formas de capitulação necessária. A reflexão sobre o que é boa ciência, ou, para usar um termo mais familiar, a metodologia, pode reencontrar seu caminho se assumir posição que, por assim dizer, lhe é de direito: a de carro-chefe da história da ciência. É verdade que algo de megalomaníaco em supor que a metodologia possa assumir tão elevada posição, mas não consigo vislumbrar um caminho intermediário entre o recuo a uma das formas de naturalismo a que acabo de fazer menção e uma operação de altíssimo risco.

Receio que a metodologia tenha sido conduzida ao fundo de um poço do qual não mais como sair a não ser dando um salto vertiginoso. O objetivo deste artigo é discutir a viabilidade deste salto.

O ideal de boa ciência na encruzilhada O ideal de boa ciência que por mais tempo seduziu a ciência moderna foi, sem dúvida, a concepção indutivista de Francis Bacon. Eu o resumiria assim: boa ciência é a que se mostra capaz de inferir leis naturais a partir do acúmulo de observações. Mais precisamente, é a que dispõe de princípios que, uma vez postos em prática, permitem que essas leis se mostrem espontaneamente ao intelecto. O princípio fundamental é manter a mente a salvo de enganos. Estes podem vir de toda parte: da imerecida confiança que usualmente depositamos em nossos sentidos, de nossos sentimentos subjetivos, do intercâmbio social e de toda sorte de sistemas, religiosos ou laicos, de pensamento. Se é assim, a condição primordial para a produção de uma boa ciência é a existência de mentes suficientemente bem treinadas para não se deixar enganar por nada disso.

Satisfeita esta condição, observações e inferências confiáveis poderão ser feitas, e a produção de uma boa ciência estará garantida. Nada menos que Newton e, posteriormente, Darwin se disseram tributários dessa concepção. Ambos acreditavam, algo ingenuamente, que suas respectivas ciências eram o resultado de um acúmulo criterioso de observações. Na verdade, o ideal baconiano de boa ciência desfrutou de um status canônico por quase três séculos. Com o benefício do olhar retrospectivo, é de espantar que tenha sido preciso que os alicerces da física newtoniana fossem abalados para que ele também se visse abalado. Seja como for, o início do século XX assistiu ao colapso da idéia de que os princípios baconianos garantem uma boa ciência. Isso conduziu a metodologia a um impasse: decidir se a ciência, para merecer este nome, precisa ou não de garantias. Responder que sim demandaria mostrar quais seriam essas garantias.

Responder que não demandaria explicar como, na ausência de garantias, a ciência poderia ser uma forma particularmente privilegiada de conhecimento. Os filósofos que, como Carnap e os empiristas lógicos de um modo geral, responderam sim, não foram capazes de mostrar as garantias. Os que, como Popper, responderam não, foram mais bem-sucedidos. Eles foram capazes de conceber uma ciência sem garantias: a ciência, disseram, mesmo não dispondo de um método capaz de assegurar, de antemão, a validade de seus resultados, constitui uma forma privilegiada de conhecimento porque é a única capaz de se expor a testes e de resistir a eles. Com essa resposta, a metodologia pôde sair da encruzilhada a que foi conduzida pela crise da Física do fim do século XIX.

Postulou-se, a partir daí, que a qualidade de uma ciência não reside na extensão em que observações e generalizações indutivamente estabelecidas se mostram depuradas das ilusões cognitivas a que a mente humana está inevitavelmente exposta, mas, sim, na diversidade de conseqüências empíricas que podem ser deduzidas de seus enunciados e na capacidade que essas exibem de resistir a testes.

Esse novo ideal de boa ciência, de caráter racionalista, foi plenamente encampado pelos livros-textos de metodologia científica. Tome-se, por exemplo, o notável livro de Stinchcombe, Constructing social theories, de 1968. Ele apresenta a abordagem sociológica de Durkheim sobre o suicídio como um modelo de boa ciência. Com efeito, é difícil imaginar um trabalho ' refiro-me, evidentemente, ao clássico O suicídio ' em que o ato de derivar conseqüências empíricas de enunciados e submetê-las a testes seja tão ubíquo. A discussão de Durkheim sobre o suicídio no exército merece particular atenção. Sabia-se que os militares se matavam mais do que os civis em qualquer país da Europa.

Convencionalmente se pensava que seria por causa das adversidades inerentes à vida militar. Vida militar envolve privação da liberdade, convívio forçado e permanente exposição a toda sorte de humilhações. Tudo isso é verdade, admite Durkheim, mas o suicídio no exército nada tem a ver com isso. O suicídio nesta corporação é da mesma natureza que o suicídio nas sociedades ditas primitivas.

Em ambos os casos, uma fatia considerável de autonomia é subtraída dos indivíduos em favor de uma identidade coletiva. No limite, a própria noção de autonomia individual perde sentido. O sentido da vida passa, então, a se localizar fora dela. Daí, o suicídio. Para tornar esta tese empiricamente tratável, Durkheim derivou nada menos que quatro conseqüências empíricas, três das quais extremamente contra-intuitivas, e testou-as uma a uma. Sua tese demandava que os voluntários se matassem mais do que os não voluntários, que os militares mais antigos na corporação se matassem mais do que os mais recentes, que os militares de alta patente se matassem mais do que os de baixa patente e que, em países protestantes, o índice de agravamento do suicídio fosse menor que em países católicos. Essas quatro demandas foram satisfeitas.

Igualmente notável foi a forma como Durkheim procedeu para corroborar sua tese fundamental de que a explicação para taxas de suicídio deve ser buscada no exame da natureza dos laços sociais e não em qualquer fator de caráter psicológico. Durkheim propôs que a explicação para, digamos, a taxa comparativamente baixa de suicídios entre os católicos deve ser buscada na natureza dos laços sociais que se estabelecem entre eles e, não, como se tenderia, então, a supor, no fato de o catolicismo ser implacável com o suicida a ponto de negar-lhe um enterro cristão. Uma implicação desta tese é a de que, embora seja verdade que os católicos temam pelo destino de suas almas caso venham a se matar, as baixas taxas de suicídio entre eles nada têm a ver com isto. Para tornar tal afirmação empiricamente tratável, Durkheim voltou-se para os judeus. O judaísmo é relativamente tolerante no que concerne ao suicídio. Um judeu não teme arder no inferno caso se mate. Ademais, uma clara e sabida conexão entre o suicídio e três fatores: grau de instrução elevado, procedência urbana e dedicação ao comércio. Essa conjunção de fatores (refiro-me aos quatro) faz do judeu um sério candidato ao suicídio. Se, entretanto, o que conta é a natureza dos laços sociais, e os laços entre os judeus são estreitos, então é de se esperar, contra os quatro fatores acima, que os judeus se matem muito pouco. Durkheim procura então mostrar que este é o caso. De um único golpe, a saber, a comparação das taxas de suicídio entre judeus e católicos, ele procurou mostrar a superioridade de sua tese sobre nada menos que quatro teses alternativas. Dada a ousadia de Durkheim em pretender corroborar um enunciado e, ao mesmo tempo, refutar quatro alternativos por meio do simples expediente de derivar do primeiro uma conseqüência empírica cuja negação é demandada por todos os outros, não é de estranhar que O suicídio seja apresentado como um modelo de boa ciência pelos melhores livros-textos de metodologia das ciências sociais.

A espada de Duhem Esse ideal racionalista de boa ciência representa, sem dúvida, um avanço desmedido em relação à visão baconiana. Não obstante, nasceu com uma espada sobre a cabeça. Ele demanda que o falseamento de uma conseqüência empírica seja transferido para o enunciado do qual ela foi deduzida. Tal transferência, entretanto, nem sempre é possível porque, sempre que derivamos uma conseqüência empírica C, de um enunciado E, este último se articula a muitos outros, digamos, E1, E2 e E3 e, se a primeira é falseada, não podemos saber com certeza se o responsável por isto é E ou qualquer um dos outros enunciados aos quais ele se articulou. Considere-se, por exemplo, o enunciado E: "A Terra é redonda". Derivemos dele a conseqüência empírica C: "quando um navio se dirige para a linha do horizonte, o mastro será a última parte a desaparecer". O simples fato de testar esta conseqüência empírica estabelece uma conexão entre E e todo um conjunto de outros enunciados. Para efeito de exposição, vou me limitar a imaginar três. E1: "aquele objeto, a uns 200 metros de nós, é um navio se dirigindo à linha do horizonte". E2: "os seres humanos são capazes de perceber um navio desaparecendo, aos poucos, no horizonte". E3: "nossas percepções são plenamente confiáveis". Suponhamos, agora, que tenhamos observado o navio desaparecer na linha do horizonte e que o mastro não tenha sido a última parte a desaparecer. Que enunciado terá sido falseado nesse caso? Idealmente estamos testando E: "A Terra é redonda". Mas a observação de que o mastro não foi a última parte a desaparecer contraria igualmente a E1, E2 e E3 ou, mesmo, um En que sequer nos tenha ocorrido. Ela não é, portanto, um meio inequívoco de refutar E. Assim, se derivamos uma conseqüência empírica C de um enunciado E, e C revela-se falso, idealmente supomos que E é falso. Mas muitas vezes não podemos saber se a falsidade de C transfere-se para E ou para algum outro (ou alguns outros) enunciado(s) a que E veio a se articular no momento em que C foi submetido a teste. Essa impossibilidade pode manter E permanentemente a salvo de refutação, o que seria um golpe mortal para o ideal racionalista de boa ciência.

Pierre Duhem chamou pioneiramente a atenção para esse problema antes mesmo que esse ideal viesse a se estabelecer. Popper, bom leitor de Duhem que era, mostrou-se ciente de tudo isso, mas não pensou que estivesse diante de um problema tão grave (Popper, 1999, pp. 43-44). É verdade, ele diz, que muitas vezes não é possível saber que enunciado de um sistema teórico está sendo falseado quando uma conseqüência empírica deste sistema é falseada. Nesses casos, ele prossegue, o cientista deve seguir seus instintos e contar com a sorte (Idem, pp. 80-81). Se não como afastar a espada, nada mais resta a fazer a não ser torcer para que ela não caia! Mas houve quem não achasse prudente contar com a sorte. Refiro-me a Lakatos.

Lakatos quis manter o novo ideal canônico de boa ciência a salvo das objeções de Duhem propondo o que denominou "metodologia dos programas de pesquisa". Um "programa de pesquisas" é uma série de teorias ancoradas em um conjunto articulado de pressupostos teóricos e metateóricos, cuja validade pode ser, até segunda ordem, presumida (Lakatos, 1970). Para que exista uma série de teorias é necessário que haja uma primeira, da qual se possa derivar uma ou mais conseqüências empíricas. Suponhamos que uma dessas conseqüências seja contrariada pela experiência. Como, nesse caso, identificar a parte da teoria que foi afetada? Não precisamos identificar, responde Lakatos. Podemos, nesse caso, recorrer a uma hipótese auxiliar para manter a teoria a salvo do contra- exemplo. , entretanto, algo a exigir dessa hipótese auxiliar: que se mostre capaz de antecipar fatos novos. Na medida em que o faz, converte-se na segunda teoria da série que compõe o programa de pesquisas. Esse processo pode continuar indefinidamente. Mesmo as hipóteses auxiliares que não são bem- sucedidas o suficiente para se elevarem à condição de teoria de um programa de pesquisa cumprem um papel fundamental. Nenhum programa de pesquisa pode prosperar se não for capaz de desenvolver uma heurística que sirva de "cinto de proteção" para seu núcleo básico de pressupostos, e as hipóteses auxiliares são a fonte dessa heurística.

Para ilustrar tudo isso vou me valer da famosa tese de Marx de que a revolução comunista deveria ocorrer na Inglaterra, país cujas "condições materiais" eram, então, as mais maduras para uma ação revolucionária. A revolução comunista, como sabemos, ocorreu na Rússia, país cujas "condições materiais" não eram nada propícias. Isto parece afetar a tese, que faz parte do "núcleo duro" de pressupostos metateóricos do marxismo, de que o "ser social determina a consciência". Uma hipótese auxiliar veio, entretanto, em socorro deste pressuposto. A chamada tese do "elo mais fraco da corrente", de Lênin. De acordo com ela, a Inglaterra e a Rússia não podem ser tomadas como unidades estanques. Ambas constituem elos de uma mesma corrente e, portanto, o que ocorre em um país tem repercussão sobre o outro. Uma vez que esta tese encerra a regra "não se deve tomar fronteiras nacionais como unidades auto-contidas de análise sociopolítica", a qual passou a fazer parte da heurística marxista, ela torna o enunciado "A revolução comunista deve ocorrer na Inglaterra" imune ao fato de a revolução ter ocorrido na Rússia porque o vincula ao enunciado "Inglaterra e Rússia são elos de uma mesma corrente". Mas, vale isso? Sim, responde Lakatos, desde que a teoria do elo mais fraco da corrente se mostre capaz de antecipar fatos novos. Ela antecipa, por exemplo, a revolução chinesa e/ou a cubana? Se sim, estamos diante de uma boa ciência. Se não, não estamos.

, entretanto, um problema, para o qual Feyerabend (1977) chamou devidamente a atenção. Lakatos quer relaxar os critérios popperianos de boa ciência sugerindo que se uma chance às teorias cujas conseqüências empíricas foram falseadas.

Mas por que não duas, ou três? Afinal, teorias não são como namorados mal- comportados que merecem uma única chance. Lakatos, certamente, teria de admitir isto, o que, no limite, conduziria a uma completa imunização da teoria contra o falseamento. Seria a espada de Duhem de volta ao cenário.

O ideal de boa ciência se rende ao naturalismo Antes que Lakatos pudesse, bem ou mal, se haver com a advertência de Duhem, houve quem se valesse dela para colocar em cheque a própria pertinência de uma reflexão apriorística sobre o que é uma boa ciência. Refiro-me, agora, a Quine.

De acordo com ele, se alguma reflexão metodológica (isto é, sobre o que é uma boa ciência) é, de todo, possível, esta não pode ter um caráter apriorístico.

Ela deve estar subordinada a uma investigação sobre como o conhecimento é efetivamente adquirido ' sobre como, a partir de tão pouco: as estimulações sensoriais, que é tudo o que nos é imediatamente dado, podemos produzir algo tão magnífico quanto, por exemplo, as teorias científicas. Inaugurou-se, assim, o que veio a ser conhecido como a abordagem naturalista do conhecimento. A reflexão metodológica passou, a partir daí, a ser vista como um dos possíveis subprodutos de uma análise sobre o modo como se a aquisição de conhecimento.

Para analisar esse processo, Quine tomou o aprendizado de uma língua como modelo. Grosso modo, ele diz, este aprendizado se por duas vias. A primeira, mais primitiva, é a da ostensão. Esta se verifica quando um adulto aponta um objeto para uma criança (ou um nativo aponta um objeto para um estrangeiro) e diz o nome desse objeto. Após algumas indicações, a criança (ou o estrangeiro) saberá associar palavras como "pássaro", "camisa", "meia" etc., aos objetos correspondentes. A segunda é, entretanto, a que mais interessa no que concerne a seu argumento. Trata-se, agora, do processo de aprender a associar palavras e sentenças não a objetos, mas umas às outras, em níveis crescentes de autonomia em relação à experiência sensível. Assim, aquilo que, no plano primitivo da ostensão pode ser, na melhor das hipóteses, descritível como, digamos, "pássaro", num plano mais complexo pode se traduzir em "eis um pássaro batendo as asas", "o pobre animal está assustado" e, num plano ainda mais complexo, " transformação de energia nesse local".

Compreender a ciência, sugere Quine, não é diferente de compreender como um estímulo tão primitivo como o espetáculo de um pássaro agitando as asas pode acabar por conduzir a uma resposta tão formidável quanto o enunciado " transformação de energia nesse local". Como um salto como este pode ser dado? pode haver uma explicação, raciocina Quine: entre o estímulo sensorial e a resposta formidável deve haver uma miríade de outros enunciados, alguns mais próximos do estímulo, outros da resposta, os quais são formados à medida que uma resposta ao estímulo original serve de estímulo para uma resposta de nível um pouco mais complexo, e assim sucessivamente, até que um enunciado como " transformação de energia nesse local" possa ser produzido. Nessa perspectiva, a ciência tem um caráter necessariamente holístico. Ela consiste de redes inteiras de enunciados que fazem sentido em bloco. A principal lição metodológica que Quine tira daí é a de que, ao contrário de tudo o que os livros-textos de metodologia científica apregoam, não é (logicamente) possível refutar um enunciado via submissão de suas conseqüências empíricas a testes.

Duhem pôs uma espada sobre o ideal racionalista de boa ciência. Popper e Lakatos tentaram, de alguma forma, afastá-la. Quine soltou-lhe as amarras.

Com este ideal fora do caminho, o que nos resta? O pragmatismo, responde Quine.

A cada homem, ele diz, é dada uma herança científica e uma carga contínua de estimulação sensorial. Cabe-lhe ajustar uma coisa à outra, e as considerações que o guiam nessa empreitada são, quando racionais, de ordem estritamente pragmática (Quine, 1953, p. 46). Mas, se é assim, então não se pode vetar, a priori, o ato de submeter enunciados a testes via dedução de suas conseqüências empíricas. Tudo o que se pode fazer a respeito é advertir que recorremos a tal expediente por uma mera questão de conveniência, isto é, apenas como um meio eficiente de "prever a experiência futura à luz da experiência passada" (Idem, p. 44). Não devemos nos esquecer, Quine diria, que maneiras alternativas de conectar o passado ao futuro e que, desde que uma determinada maneira se mostre eficiente na sua esfera específica de atuação, ela vale tanto quanto qualquer outra.

Em seu célebre Humano, demasiado humano, seção 111, Nietzsche nos fala de um tempo em que não havia qualquer noção de causalidade natural. Quando se remava, não era o remo que movia o barco; remar era apenas uma cerimônia mágica, pela qual se forçava um demônio a mover o barco. Se as fontes secavam de repente, pensava-se primeiro em demônios subterrâneos e suas maldades. Quine tem razão: mesmo maneiras alternativas de conectar o passado ao futuro. A postulação da existência de demônios é uma delas. A postulação de causalidade natural é outra. Não , Quine diz, descontinuidade entre elas. A única diferença está no grau em que cada uma favorece nossa maneira de lidar com a experiência sensorial imediata (Idem, p. 45). Ao postular tal continuidade, Quine acabou por conduzir, ainda que involuntariamente, a advertência de Duhem a uma espécie de vale-tudo. Se não descontinuidade entre demônios e causalidade natural; se ambos seriam, como o próprio Quine sugere em seu clássico artigo "Dois dogmas do empirismo", "mitos" de uma mesma espécie, dos quais nos servimos para lidar com nossas experiências sensoriais, e se tudo o que temos a demandar desses "mitos" é que se mostrem eficientes nas circunstâncias particulares em que são mobilizados, então qualquer um deles, desde que bem ajustado a um bloco monolítico de enunciados, e que se mostre útil a um conjunto previamente delimitado de propósitos, deve valer.

Cabe, entretanto, alertar que este vale-tudo não se confunde com o amplamente conhecido vale-tudo de Feyerabend. Apesar de se auto-proclamar "contra o método", Feyerabend sempre se houve com a questão metodológica sem imaginar que ela tivesse de ser subordinada a alguma análise de caráter naturalista. Apesar de sua retórica irracionalista, a preocupação em saber o que é uma boa ciência e como ela é possível é central em seu pensamento. Neste, a resposta para essas perguntas não aparece como um subproduto da resposta para a pergunta: como se adquire conhecimento? Assim, se Feyerabend não considerasse a ciência de Galileu um modelo de boa ciência, ele não teria por que se empenhar em mostrar quão importante foram para o avanço da ciência moderna os esforços, muitas vezes de caráter maquiavélico, deste notável físico e astrônomo italiano para convencer os teólogos aristotélicos da validade do sistema copernicano.

Diferentemente de Quine, Feyerabend está explícita e profundamente empenhado em saber o que torna uma teoria intrinsecamente digna de interesse. Seu controvertido livro Contra o método quer mostrar que Popper, e os racionalistas de um modo geral, não foram capazes de oferecer uma boa resposta, e não que essa indagação não seja fundamental. Se assim não o fosse, ele não teria por que dizer, como o fez, que "não uma única teoria digna de interesse que esteja em harmonia com todos os fatos conhecidos que se situam em seu domínio" (Feyerabend, 1977, p. 41). Talvez a essência do naturalismo de Quine, se assim posso me expressar, esteja em dizer exatamente o oposto: toda e qualquer teoria é digna de interesse desde que esteja em perfeita harmonia com todos os fatos conhecidos que se situam em seu domínio. Ou, melhor dizendo: uma teoria éuma teoria na medida em que consegue se manter em harmonia com todos os fatos conhecidos do seu domínio.

Nos marcos do naturalismo holista de Quine, entretanto, manter-se em harmonia com todos os fatos conhecidos não é uma meta difícil de ser alcançada. As considerações anteriores sobre o modo pelo qual algo como o espetáculo de um pardal agitando as asas pode conduzir a um enunciado como " transformação de energia nesse local" torna isto claro. Vimos que este último pode estar conectado a um enunciado como "eis um pardal agitando as asas" se ambos estiverem conectados a todo um conjunto de outros enunciados de graus variados de afastamento em relação ao estímulo original. Os dois enunciados em consideração, e todos os outros, articulam-se assim em um único bloco. O significado de cada um dos enunciados resulta, nessa perspectiva, de sua articulação com todos os outros, e este vasto conjunto de enunciados interconectados exibe um caráter de "campo de forças", que mantém contato com a experiência sensorial em sua periferia (Quine, 1953, p. 42). Assim, no exemplo dado anteriormente, o enunciado "A Terra é redonda" ocupa uma posição mais central no "campo". Ele está bastante afastado da experiência sensorial imediata. O enunciado que descreve o que observamos quando um navio desaparece na linha do horizonte ocupa a posição mais periférica. Entre um e outro, é possível conceber a existência de muitos outros enunciados, não explicitados, uns mais próximos do centro (os anteriormente mencionados E2 e E3), outros da periferia (o enunciado E1), conectados entre si e aos dois enunciados em consideração. Se acontecer de a experiência sensorial contrariar um enunciado situado na periferia desse "campo de forças", este último não se verá em dificuldade. Nesse caso, os outros enunciados se redistribuem dentro do campo, isto é, deslocam-se para posições mais centrais ou mais periféricas, de forma a manter o sistema, como um todo, à salvo da experiência sensorial que contrariou o enunciado periférico. Nessa perspectiva, ao contrário do que dizem os livros- textos de metodologia, teorias não se sustentam porque se mostram capazes de resistir a testes cruciais ' mesmo porque, agora, teorias sequer podem se prestar a testes cruciais ', mas porque encerram redes de enunciados capazes de se proteger mutuamente sempre que alguma conseqüência empírica de algum desses enunciados é contrariada pela experiência. Daí a impossibilidade, a priori, de uma teoria científica em desarmonia com qualquer fato conhecido de seu domínio.

Estamos, então, diante de uma crítica radical ao ideal racionalista de boa ciência. Conforme vimos, este último veria a sociologia que Durkheim oferece em O suicídiocomo um inequívoco exemplo de boa ciência. Durkheim procurou mostrar, via submissão de teorias em competição a testes cruciais, isto é, via derivação de uma conseqüência empírica de uma das teorias, cuja negação é implicada pelas demais, que: 1) o suicídio no exército é da mesma natureza que o suicídio em sociedades ditas primitivas, 2) o índice comparativamente baixo de suicídio entre os católicos é da mesma natureza que o índice comparativamente baixo de suicídio entre os judeus e, 3) em ambos os casos, pode-se perfeitamente prescindir da psicologia porque a explicação pode ser encontrada em um exame da natureza dos laços sociais. Se isso não é um exemplo de boa ciência, diria o ideal racionalista, o que mais poderia ser? O naturalismo holista de Quine, entretanto, não veria razão para tanto entusiasmo. Ele argumentaria que os enunciados que Durkheim presumivelmente refutou podem ser facilmente reabilitados desde que outros enunciados venham em seu socorro. Relembremos, por exemplo, a tese de Durkheim de que a taxa comparativamente elevada de suicídio entre os voluntários requer uma explicação sociológica e exclui a possibilidade de qualquer explicação psicológica para o suicídio no exército.

Pode-se, contra isto, argumentar que os voluntários se matam mais porque, antes de entrar para o exército, alimentam expectativas sobre a vida militar e estas se frustram amplamente. A psicologia estaria, assim, reabilitada. Se esse tipo de exercício for generalizado, algo que pode facilmente ser feito, não restaria pedra sobre pedra do argumento sociológico a respeito de mortes voluntárias.

Isso significaria que O suicídio é um irremediável fracasso? Bom pragmatista que é, Quine responderia que não. Responderia que para entender a real contribuição de Durkheim é necessário entender o que ele efetivamente fez. E, de um ponto de vista pragmatista, o que Durkheim efetivamente fez, ao supor haver contribuído para o avanço do conhecimento científico via falseamento de teorias psicológicas incapazes de perceber que a explicação para o comportamento humano reside na natureza dos laços sociais, foi mascarar o fato de que "natureza dos laços sociais" é, tanto quanto o aparato conceitual psicológico a que esta concepção se contrapõe, um dos possíveis "mitos" a que podemos recorrer para estabelecer uma conexão entre nossas experiências passadas e futuras. Se a sociologia de Durkheim pode, de todo, ser considerada uma boa ciência, é somente por razões dessa natureza, ou seja, é somente por ter produzido um ou mais "mitos" potencialmente úteis, e não pelas razões mencionadas nos livros-textos de metodologia científica.

O ideal de boa ciência chega ao fundo do poço Apesar de implicar tal crítica contundente aos livros-textos de metodologia, essa versão do naturalismo deixa ainda alguma margem para a preocupação com a questão metodológica. Quine questionou a pertinência de uma reflexão metodológica de caráter apriorístico, e não de qualquer reflexão metodológica concebível. Houve, entretanto, quem desse esse passo adicional, conduzindo a abordagem naturalista a um verdadeiro manifesto antimetodológico. Subordinar a reflexão metodológica a uma análise naturalística do processo de aquisição de conhecimento pareceu, a alguns, pouco. Melhor mesmo, diriam, seria acabar logo com esta saga do ideal de boa ciência, dissolvendo-o em uma sociopsicologia do conhecimento. Refiro-me, agora, àqueles que, por falta de melhor nome, chamarei de behavioristas wittgensteinianos. Embora seja clara a influência que receberam de Wittgenstein e de Kuhn, eles são, de fato, herdeiros diretos do empirismo de Hume. Eu reconstruiria idealmente a posição antimetodológica desses sociólogos pós-kuhnianos nos seguintes termos: todas as tentativas de mostrar o que é uma boa ciência fracassaram. Não , na verdade, por que insistir nisso. No que concerne à prática científica, todos sabem o que é uma "boa" (agora entre aspas) ciência. Devemos, portanto, deixar a questão metodológica de lado e concentrarmo-nos na atividade científica tal como realmente se . Em vez de indagarmos o que é uma boa ciência, devemos indagar como definições de "boa ciência" são estabelecidas, aprendidas e incorporadas à prática científica efetiva.

Para além de uma boa crônica da ciência, a quê pode, entretanto, esta linha de investigação conduzir? David Bloor, o mais importante desses sociólogos, parece ter se dado conta de que essa radicalização do naturalismo não tem interesse algum a menos que possibilite, de alguma forma, atingir o que ele mesmo chamou de "o próprio coração do conhecimento" (Bloor, 1976). Ele pretendeu, então, via uma peculiar combinação da psicologia empirista de Stuart Mill com uma estranhíssima concepção sociológica de objetividade à qual chegou, espantosamente, a partir de Frege, "tocar o próprio coração" do conhecimento matemático. Naturalmente, os ecos do naturalismo de Quine se fizeram presentes: é possível fazê-lo, argumenta Bloor, investigando o modo como efetivamente este conhecimento é adquirido. Como, afinal, isto se ? Como se aprende matemática? Bloor vai buscar a resposta em Stuart Mill: aprende-se matemática tomando-se operações físicas com objetos como um modelo para raciocínios abstratos. Crianças brincam com pedrinhas. Elas as ordenam, agrupam, separam etc. Processos de raciocínio matemático são apenas pálidas sombras de operações físicas dessa natureza. É em razão de nossa experiência anterior em ordenar, agrupar e separar objetos físicos que somos capazes, por exemplo, de entender uma equação como x (x + 2) + 1 = (x + 1)2. Bloor, então, ancora-se em Stuart Mill para mostrar como uma experiência tão primitiva quanto brincar com pedrinhas pode conduzir a algo tão formidável quanto tal equação.

, entretanto, lembra Bloor, uma séria lacuna no raciocínio de Mill, para a qual Frege chamou devidamente a atenção: o caráter objetivo do conhecimento matemático ficou sem explicação. Os números, diz Frege, não estão no mundo material da mesma forma que uma árvore está. De uma árvore podemos dizer que é frondosa, verde etc. De um número não é possível dizer nada disso. Os números tampouco estão na mente, no mesmo sentido em que, por exemplo, um sentimento está. Não o "meu" dois ou o "seu" "dois". Os números, então, fazem parte de um mundo que não é nem o dos objetos materiais nem o das disposições subjetivas. Fazem, antes, parte daquilo que Frege denominou o mundo da objetividade. Bloor concorda com tudo isso e se pergunta: o que é esta objetividade de que fala Frege? A resposta, ele vai buscar no que faltou a Mill: uma sociologia. O único erro de Mill, segundo Bloor, foi não ter percebido que nem toda maneira de operar com objetos físicos serve de matéria- prima para nossos raciocínios matemáticos. maneiras "caracteristicamente matemáticas" de operar. "Tocar o coração do conhecimento matemático" seria, então, uma questão de entender o que faz de uma situação na qual certas operações são realizadas uma situação "caracteristicamente matemática". Posto o problema desta forma, a resposta ficou fácil: o que torna uma situação "caracteristicamente matemática" é um conjunto determinado de convenções que organizam, a priori, nossas experiências com objetos. Estas autorizam certos padrões de ordenação, agrupamento e separação de pedrinhas e desautorizam outros e, ao fazê-lo, conferem ao conhecimento matemático um caráter institucional. Eis, então, o que é a matemática: uma maneira institucionalizada de se comportar. Uma maneira socialmente sancionada de operar com objetos e de fazer inferências a partir daí. E eis o que lhe confere objetividade: seu caráter institucional. Bloor não precisou da espada de Duhem para aniquilar com a metodologia. Bastou-lhe combinar uma versão particular do empirismo de Hume (expresso na aritmética de Mill) com uma versão sociológica, bem ao estilo de Durkheim, do apriorismo kantiano.

A mola no fundo do poço Entretanto, nem tudo está perdido. Dizem que existe uma mola no fundo do poço.

Para tornar a sua sociologia do conhecimento apta a atingir "o próprio coração do conhecimento", Bloor se viu forçado a jogar qualquer ideal concebível de boa ciência no fundo do poço. Mas, como que por um ato da Providência, ele jogou a mola também: a concepção de objetividade de Frege. É verdade que, ao revestir essa concepção de um caráter de convenção social, ele a desfigurou. Ele distendeu a mola antes de jogá-la no poço. Mas, para isto remédio. A mola pode ser reparada e, mais do que isso, tornada ainda mais potente.

Para reparar a mola é necessário mostrar como ela foi danificada. Vejamos, então, como Bloor o fez, isto é, como ele desfigurou o pensamento de Frege.

Este último, conforme vimos, fala-nos de um mundo que não é físico nem mental, real mas não atual, cujos habitantes são, por exemplo, a linha do equador, o eixo da terra, o centro de massa do sistema solar e os números. Bloor seguiu Frege até . Em seguida, entretanto, converteu-o em um sociólogo durkheimiano do conhecimento avant la lettre. Bloor deteve-se no exemplo da linha do equador. Esta linha imaginária, argumentou, é, tanto quanto uma fronteira territorial, uma convenção social. Não, evidentemente, uma convenção qualquer, mas uma que se impõe de forma irresistível. Daí, concluiu: o que mais pode ser a objetividade senão essa tenacidade com que as convenções sociais se impõem a nós? Pobre Frege! Em que naturalista medíocre Bloor o transformou! Não lhe ocorreu que não foi por acaso que Frege mencionou a linha do equador e não o meridiano de Greenwich. Este último é, de fato, uma convenção, no sentido de Bloor. O meridiano passa por Londres, mas não precisaria passar. Nada, a não ser nossas próprias conveniências, nos obriga a mantê-lo ali. O equador, ao contrário, é uma linha imaginária que corta uma postulada figura geométrica pela metade. Para mudá-lo de lugar, teríamos que esticar ou achatar, ainda mais, um dos pólos do planeta. E, mesmo que isto fosse possível, uma nova linha imaginária, que poderíamos continuar ou não chamando de equador, permaneceria cortando uma figura geométrica pela metade. O conceito de metade, a propósito, é mais um habitante do mundo da objetividade de Frege. Comparar a linha do equador com uma fronteira territorial é, então, um nítido despropósito. Como a atribuição de um caráter de convenção social ao conhecimento objetivo de Frege depende de despropósitos dessa natureza, podemos considerar sem efeito o uso que Bloor faz de Frege. Está, assim, restaurada a mola que Bloor distendeu.

Vejamos, agora, como o ideal de boa ciência pode se apoiar nela para sair do poço a que foi gradativamente conduzido.

Frege não postulou este terceiro mundo do conhecimento objetivo para falar do equador ou de números, mas, sim, de nada menos que a própria lógica. Desde Aristóteles esta era concebida como o conjunto de regras que governam o pensamento. Frege rompe com isso radicalmente. A lógica é objetiva: não se refere às leis do pensamento, ou, mesmo, nada tem a ver com pensamento.

Relações lógicas independem do pensamento humano. Nós, humanos, podemos conhecê-las, aprendê-las, deixar de notá-las, compreendê-las bem ou mal, tanto quanto podemos conhecer, aprender, não notar ou compreender bem ou mal todo um conjunto de outras coisas que existem independentemente de nós. Nesse sentido, proposições lógicas são verdades objetivas. Podemos apreendê-las ou deixar de apreendê-las, mas sua existência nada tem a ver com qualquer característica do pensamento humano (Magee, 1998, pp. 194-195). Popper (1972) encampou essa concepção e levou-a adiante. Se a lógica é objetiva, teorias também o são: encerram, além de uma heurística objetiva, conforme vimos, um conjunto de pressupostos (teóricos e metafísicos) objetivos, problemas objetivos e implicações objetivas. Esses pressupostos, problemas e implicações objetivas constituem, por sua vez, situações objetivas que encerram novos problemas objetivos, os quais, se descobertos e tentativamente solucionados, conduzem a novas teorias objetivas que encerram novos problemas, novas implicações objetivas etc.

Quero sugerir que a chave para o resgate de um ideal de boa ciência está nessa noção fregiana-popperiana de implicações objetivas. Afirmar que uma teoria tem implicações objetivas é afirmar que ela é compatível ou incompatível com outras, que pode abranger teorias mais restritas ou ser um caso limite de uma teoria mais abrangente, que objetivamente constitui, ou não constitui, uma ruptura importante com um estado objetivo de conhecimento existente, que, por sua vez, encerra um arcabouço conceitual objetivo, quer de natureza teórica, quer de natureza metateórica, dentro do qual todo um conjunto de teorias formuladas posteriormente vem objetivamente a se mover, entre muitas outras coisas. Essas considerações abrem um campo formidável de investigações: averiguar se, e em que sentido, uma determinada teoria representa uma ruptura com um estado objetivo de conhecimento existente, se sua contribuição objetiva para um estado objetivo de conhecimento reside em seu sucesso experimental ou no fato de encerrar, objetivamente, uma heurística compatível com certas teorias e incompatível com outras e/ou um arcabouço conceitual dentro do qual outras teorias, formuladas posteriormente, objetivamente se movem etc. O crucial de meu argumento é o de que não é possível se haver com indagações dessa natureza sem que um ideal de boa ciência, imune à espada de Duhem, esteja objetivamente subentendido. Posto de outra forma, a própria existência desse campo objetivo de investigação pressupõe a existência objetiva de tal ideal.

O salto para fora do poço: a saga continua...

Se é assim, e se estamos no mundo fregiano da objetividade, então tudo o que temos de descobrir é se existe objetivamente alguma área de investigação que não possa existir como tal se não se houver permanentemente com indagações como aquelas levantadas acima. Em outras palavras, se existe alguma área de investigação que para se manter como tal precisa permanentemente se perguntar se uma teoria representa ou não alguma descontinuidade com um dado estado objetivo de conhecimento, se a importância de uma teoria reside em seu arcabouço conceitual ou em seu sucesso experimental etc. Receio que esta área de investigação exista e seja conhecida pelo nome de história da ciência.

A fim de desenvolver este ponto, peço licença para fazer uma longa citação.

Como é a primeira e será a única deste artigo, espero que o leitor releve.

Trata-se de um texto do célebre historiador da ciência Bernard Cohen, publicado originalmente em 1956. Interessa-me mostrar quão vulnerável fica a historia da ciência à espada de Duhem e, por extensão, à capitulação ao naturalismo na ausência de um bom ideal de boa ciência. Passemos, então, a palavra a Cohen: Um dos mais importantes assuntos de pesquisa na História da Ciência, nós o encontramos na relação entre a "Revolução Científica" do século XVII e a imaginação humana. Um dos maiores momentos na evolução da ciência, um momento, realmente, com que nada se compara na evolução de todo o pensamento científico, ocorreu em 1609, quando Galileu apontou seu telescópio para os céus. Até então, travavam-se discussões sobre a natureza e movimento das estrelas e outros corpos celestes, além de especulações sobre a natureza dos sistemas cósmicos, caráter e características desses corpos. Quando Copérnico afirmou que a Terra era apenas outro planeta, suas palavras pouco significavam porque as observações a olho nu não revelavam qualquer semelhança entre a Terra e as estrelas. Dizer que algumas estrelas, chamadas de planetas, moviam-se nos céus em relação umas às outras, algumas vezes para frente e outras para trás, pouco justificava a opinião de que eram semelhantes à Terra. A maioria das pessoas considerava as estrelas como uma espécie de corpos perfeitos, imutáveis, puros, em contraste com a Terra, onde havia decomposição, nascimento, vida, morte e transformações de todo os tipos. As características físicas da Terra, por conseguinte, podiam explicar sua posição única como centro do universo, o lar conveniente para o homem que era, em si mesmo, impuro, pecador e corrompido. Ao assestar para o céu o telescópio, Galileu viu pela primeira vez como era realmente o firmamento. Descobriu que a Lua possuía montanhas e vales e que parecia uma Terra em miniatura, embora fosse uma Terra morta. A Terra, descobriu ele, refletia a luz do Sol e iluminava a Lua, o que comprovava que a Terra brilhava como os demais planetas e teria o mesmo aspecto para um observador que se encontrasse em Marte ou Vênus. Este último mostrava fases como a Lua, o que presumivelmente acontecia também à Terra e aos demais planetas. Verificou ele ainda que Júpiter possuía quatro luas, dessa maneira eliminando mais um dos aspectos de singularidade da Terra, até então considerada o único corpo celeste que possuía satélite.

As descobertas de Galileu sugeriram que as opiniões de Copérnico sobre o universo podiam ser consideradas como algo mais do que simples abstração matemática, mais do que um expediente para computar posições futuras dos planetas e da Lua. Não era mais absurdo julgar a Terra um planeta, uma vez que a Terra e os planetas possuíam tantas características comuns, como revelava o telescópio. Evidentemente, quando Galileu publicou um relato de algumas dessas descobertas no Mensageiro Sideral, de 1610, o efeito foi explosivo. Daí em diante, cientistas e teólogos eram forçados a considerar as conseqüências da residência do homem sobre uma Terra que fora posta em movimento e que estava relegada a uma posição sem maior importância no sistema solar e não mais era o centro do universo. Ao mesmo tempo, poetas, teatrólogos e filósofos encontravam campo para a imaginação nas possibilidades de um vasto e até então desconhecido universo, finalmente revelado ao homem. As estrelas, os planetas, a Via Láctea, o próprio sol, e as nebulosas, presumivelmente, circulavam no espaço desde o dia em que Deus havia criado o mundo, mas o homem jamais os conheceu até o dia em que Galileu apontou seu telescópio para os céus (Cohen, 1963, pp. 166-167).

O exacerbado otimismo epistemológico que este texto exibe é tudo o que o naturalismo sociológico peculiar a Bloor e aos sociólogos pós-kuhnianos de um modo geral precisa para se regozijar. Para Cohen, acreditar que a Terra é apenas mais um planeta ou que a lua possui montanhas e vales é uma mera questão de substituir o olho nu por um telescópio. Para ele, crer é uma questão de saber ver. Contra esse exacerbado otimismo, deve ser suficiente lembrar que, de um modo geral, acreditamos no que vemos quando o que vemos não contradiz nossas expectativas sobre o modo como o mundo é. Como as descobertas de Galileu a que Cohen faz menção contradiziam as tenazes expectativas dos teólogos e astrônomos aristotélicos, é uma ingenuidade supor que a balança penderia tão facilmente para o lado dessas descobertas. Ao incorrer neste deslize, Cohen tornou-se extremamente vulnerável à espada de Duhem; ele tornou-se uma presa fácil de objeções do tipo: o quê, no século XVII, poderia garantir que as "montanhas e vales na lua", ou as "luas de Júpiter", não eram apenas uma ilusão de óptica a que o uso de tão estranho instrumento, o telescópio, poderia ter conduzido? Por que, nessa época, dar crédito a um instrumento óptico cujo funcionamento mal se conhecia se ele contrariava uma sabedoria consagrada por uma tradição milenar? Toda uma historiografia da ciência, cuja obra paradigmática parece ser o livro Leviathan and the Air-Pump(Shapin e Schaffer, 1985), desenvolveu-se nos últimos anos em torno de questões dessa natureza, isto é, em torno da tese trivialmente correta de que crer não é uma mera questão de ver; de que a verdade não traz uma marca na testa. Esta historiografia da ciência é sobretudo um legado natural da capitulação do ideal de boa ciência, e deve ser muito grata aos historiadores da ciência que se permitiram exibir o mesmo imoderado otimismo epistemológico que Cohen exibiu.

Esse imoderado otimismo pode, entretanto, ser evitado desde que o carro-chefe da história da ciência não traia, como no caso de Cohen, um ideal de boa ciência tão nitidamente vulnerável à espada de Duhem. Foi somente por subscrever irrefletidamente um ideal desta natureza que Cohen pôde sustentar que a marca da revolução científica foi o conjunto de observações contra- intuitivas obtidas através do telescópio de Galileu.

Mas, afirmar que Cohen errou porque o ideal de boa ciência que sustentação a seu argumento não é bom é admitir que esse ideal deve ser substituído por um melhor e que um bom ideal de boa ciência é imprescindível para a condução de qualquer investigação na história da ciência. , felizmente, historiadores da ciência que se deram plenamente conta desse fato e jamais ousaram fazer qualquer investigação histórica sem que uma reflexão metodológica não ocupasse a posição central. Alexandre Koyré é o caso exemplar. Sua história da ciência é informada por um ideal de boa ciência que eu, trazendo-o para o mundo da objetividade de Frege, sintetizaria na seguinte fórmula: boa ciência é a que tem algum impacto objetivo tanto sobre um estado objetivo de conhecimento anterior como sobre um estado objetivo de conhecimento posterior. Os impactos objetivos mais evidentes sobre um estado de conhecimento anterior são o de permitir a continuidade deste estado de conhecimento ou o de romper com ele.

Mas outros. Veja-se o caso da genética mendeliana, cujo impacto objetivo retrospectivo está em ter viabilizado a continuidade da teoria da evolução por seleção natural ao fundir-se com ela na chamada síntese evolutiva. Quanto aos impactos prospectivos, estes ocorrem na medida em que teorias encerram situações objetivas para a emergência de novos problemas e/ou de novos arcabouços conceituais que constituam referenciais objetivos dentro dos quais outras teorias possam objetivamente se mover. No que concerne a este ponto, o melhor exemplo que tenho em mente é o da teoria da fagocitose, de 1883, de Metchnikoff (Cf. Tauber, 1991). A situação objetiva que esta teoria encerra é composta pela premissa metafísica de um organismo intrinsecamente desarmônico, mas em permanente luta pela harmonia, e pela tese metateórica, que repousa sobre esta premissa, de que nosso sistema imunológico não deve sua existência à luta contra um agente infeccioso, mas à coexistência, em qualquer estágio do desenvolvimento ontogênico, de estruturas de diferentes origens filogenéticas, requerendo, portanto, um mecanismo ativo que viabilize esta coexistência. Uma vez que a fagocitose (a ingestão de corpos sólidos por células mesodérmicas amebóides tais como os leucócitos) se caracteriza por ser justamente este mecanismo, ela se torna o elemento-chave da imunidade. Desta situação objetiva emergiu tanto o conceito que ancora objetivamente toda a imunologia moderna, a saber, o de um hospedeiro ativamente responsivo, como o problema em torno do qual esta objetivamente se move, a saber: como um organismo distingue o que lhe é próprio do que lhe é estranho.

Impõe-se, neste ponto, um contraste com Kuhn. As considerações acima sobre o caráter de boa ciência da teoria da fagocitose podem parecer uma rendição à tese kuhniana de que boa ciência é aquela que dispõe de um paradigma amplamente aceito no interior do qual uma "ciência normal" pode se desenvolver. Devo, entretanto, dizer que não é este o argumento que quero fazer ao dizer que a teoria da fagocitose fornece um arcabouço conceitual imprescindível para as teorias modernas de imunidade. Em primeiro lugar, porque a concepção kuhniana inscreve-se no behaviorismo wittgensteiniano a que anteriormente fiz menção.

Para Kuhn, boa ciência é, ao fim e ao cabo, qualquer uma que se mostre capaz de proporcionar segurança e conforto para seus praticantes. A teoria da fagocitose, pelo que sei, jamais proporcionou segurança ou conforto aos imunologistas. Ao contrário, muitos viam nela um traço de misticismo. De acordo com os padrões kuhnianos, ela não mereceria muita atenção. Em contraposição, meu argumento é o de que uma teoria não precisa desfrutar de um caráter paradigmático, no sentido kuhniano, para ter um papel fundamental na história de uma ciência. A teoria da fagocitose ilustra esse fato exemplarmente bem.

Além de seu acentuado teor metafísico, ela era de difícil operacionalização, e tudo isso a impediu de ser vista como um modelo de ciência a ser seguido. Nem por isso, entretanto, ela deixou de ter um impacto fundamental, que não se mede pela contagem de citações. Seu impacto é objetivo no sentido fregiano- popperiano: um "antes" e um "depois" dela, mesmo que os imunologistas jamais tenham se dado conta disso.

Uma vez exposta a concepção de boa ciência de Koyré, posso mostrar como ela constitui o carro-chefe de sua investigação histórica. No mesmo ano em que Cohen publicou o texto que reproduzi anteriormente, Koyré publicou um artigo intitulado: "As origens da ciência moderna: uma nova interpretação" (Koyré, 1991). Ao contrário de Cohen, contudo, que irrefletidamente assumiu um ideal de boa ciência vulnerável à espada de Duhem para discorrer sobre as origens da ciência moderna, Koyré subordinou sua interpretação sobre este mesmo processo a uma prévia reflexão metodológica. Ele se perguntou o que faz da ciência de Galileu uma boa ciência. A resposta, ele foi buscar nos impactos objetivos, retrospectivos e prospectivos, desta ciência. O impacto retrospectivo mais importante foi a destruição do Universo fechado e hierarquizado da física escolástica via substituição do espaço concreto de Aristóteles pelo espaço abstrato da geometria euclidiana. O prospectivo está em ter preparado o terreno para o desenvolvimento do conceito de inércia ao romper com a concepção aristotélica de que o repouso é o estado natural e o movimento uma alteração forçada deste estado. Galileu não permitiu que o repouso desfrutasse do privilégio ontológico que a física escolástica lhe concedera. Sem essa dupla subversão, argumenta Koyré, um telescópio nada pode. É ela, e não o telescópio a que tão entusiasticamente alude Cohen, que está na base da transição do sistema ptolomaico para o copernicano. Um bom ideal de boa ciência permitiu, então, a Koyré nos mostrar a verdadeira natureza da revolução científica: tratou-se, sobretudo, de uma revolução conceitual.

Diante do exposto, o contraste com a capitulação naturalista é inevitável.

Esta, conforme vimos, consiste em subordinar a questão metodológica a uma análise do processo de aquisição do conhecimento. Para proceder a tal análise, o aprendizado de uma língua materna, ou de uma língua estrangeira, é tomado como modelo. Um efeito imediato dessa maneira de proceder é excluir, de antemão, a possibilidade da existência de descontinuidades no conhecimento.

Afinal, o aprendizado de uma língua é um processo cumulativo, contínuo.

Tomemos, como exemplo, o aprendizado do inglês. Não foi preciso esperar por Quine ou Wittgenstein para que soubéssemos que uma sentença como "this is a table" não esgota as possibilidades de traduzir a sentença "isto é uma mesa".

Entretanto, o naturalismo holista de Quine, ele próprio uma variante da tese wittgensteiniana de que o significado das palavras reside em seu uso efetivo, convida-nos a admitir uma possibilidade mais radical: a de traduzir uma sentença como "isto é uma mesa" para o inglês sem que seja necessário fazer uso de termos como "this", "is", "a" e "table". Mais do que isto, convida-nos a conceber traduções de "this is a table" que sejam incompatíveis com "isto é uma mesa". Não tenho qualquer dificuldade em concordar com essas idéias. Afinal, não é difícil conceber situações do uso cotidiano das palavras em que "sim" significa "não", ou vice-versa. Todavia, nada disso implica descontinuidade.

Esta se verificaria se fosse possível conceber uma tradução para "this is a table" que tornasse uma tradução como "isto é uma mesa" objetivamente inconcebível. Assim, a descontinuidade no aprendizado de uma língua é também impossível. Receio que a realização mais espetacular da capitulação naturalista tenha sido a de estender, de antemão, essa impossibilidade para o conhecimento.

Em outras palavras, é ter tornado o conhecimento necessariamente contínuo e cumulativo. Isso excluiria a possibilidade de rupturas como a que Cohen descreve. De acordo com esse raciocínio, a verdadeira razão para refrear o entusiasmo de Cohen não está no imoderado otimismo epistemológico que este traz embutido, mas no fato de encerrar uma visão descontínua do conhecimento.

Koyré subverte tudo isso ao subordinar todo um campo de investigação à reflexão metodológica. Deste campo faz parte averiguar aquilo que o naturalismo proíbe de antemão: se , e em que sentido, descontinuidades no conhecimento. Se Koyré discorda de Cohen, não é porque este último permitiu que entre Aristóteles e Galileu houvesse uma descontinuidade, mas, sim, em razão de faltar a Cohen um ideal de boa ciência bom o suficiente para viabilizar a compreensão da natureza dessa descontinuidade. , entretanto, um importante ponto em comum entre Quine e Koyré: ambos rejeitam, enfaticamente, a emissão de juízos baseados em cânones metodológicos estabelecidos a priori. Quine, conforme vimos, não partilharia do entusiasmo que um livro-texto de metodologia científica alimentaria por discussões como a de Durkheim sobre o suicídio no exército ou sobre as taxas comparativamente baixas de suicídios entre católicos e judeus. Ele veria esse tipo de discussão como uma presa fácil para a espada de Duhem. Koyré, certamente, partilharia desse desencanto. Mas não teria, a meu ver com razão, por que creditá-lo à vulnerabilidade dos argumentos de Durkheim às advertências de Duhem. O problema está em outro lugar. Receio que a sociologia contida em O suicídio seja um claro exemplo de ciência que passa por boa ciência quando submetida aos cânones metodológicos de boa ciência. Não que eu me oponha a procedimentos como, por exemplo, corroborar um enunciado e, ao mesmo tempo, refutar vários enunciados alternativos por meio de um simples expediente como derivar do primeiro uma conseqüência empírica cuja negação é demandada por todos os outros. Porém, se tal procedimento é tão louvável, e tão ubíquo em O suicídio, então por que considerar a sociologia contida nesse livro uma ciência? A resposta está em três perguntas: Que problema objetivo emergiu a partir desta sociologia? O que ela objetivamente destruiu? O que ela objetivamente pôs no lugar? Para dar uma idéia do que estou perguntando, vou mostrar quais seriam as respostas se a pergunta se referisse à teoria da fagocitose de Metchnikoff. O que ela objetivamente destruiu? A concepção passiva do processo de imunidade peculiar a toda a imunologia do século XIX, incluindo-se a de Pasteur. O que ela objetivamente pôs no lugar? Uma concepção ativa do processo de imunidade, sobre a qual se moveu objetivamente toda a imunologia do século XX. Que problema objetivo emergiu a partir dela? O de como o organismo distingue o que lhe é próprio do que lhe é estranho. É possível dar respostas remotamente análogas a estas se perguntarmos pelo impacto objetivo, quer retrospectivo quer prospectivo, da sociologia de O suicídio? Acredito que A divisão do trabalho social e, para não dizer que não falei de Max Weber, A ética protestante e o espírito do capitalismo resistiriam com folga a um teste dessa natureza. Quanto a O suicídio, tenho sérias dúvidas. Posso, evidentemente, estar enganado sobre esse assunto. Mas não é isso o que importa.

A lição que quero tirar daí é outra. Vimos que não pode haver história da ciência sem um ideal de boa ciência ' o que pode haver, e infelizmente tem havido, é história da ciência que, ao desdenhar a reflexão metodológica, deixa- se guiar, irrefletidamente, por um ideal empirista ou pragmatista de boa ciência. Mas, se não como escapar de uma reflexão metodológica para reconstruir a história de alguma ciência, por que não utilizar essa reflexão para emitir juízos sobre a qualidade de outras? Por que não usar um juízo sobre, digamos, a teoria da fagocitose, como um modelo para emitir juízo sobre a sociologia contida em O suicídio? Trata-se, certamente, de uma operação de alto risco. Mas receio que não tenhamos escolha. Ou corremos o risco de nos equivocar em nossos juízos, um risco que pode ser atenuado se contarmos com a inestimável ajuda do mundo da objetividade de Frege, ou nos condenamos a subscrever, de forma acrítica, juízos estabelecidos. É verdade que a segunda alternativa tem prevalecido, mas não precisamos daí concluir que ela tenha de continuar a prevalecer, isto é, que a saga do ideal de boa ciência tenha conhecido o seu fim.


transferir texto