quinta-feira, 21 de abril de 2016

Modelos Científicos


AVISO A POLÍCIA ESTA CONTA E MEU COMPUTADOR ESTÃO SENDO UTILIZADOS POR BANDIDOS À MINHA REVELIA

 =============





DENUNCIE O FASCISMO


   ESTE BLOG FOI ELABORADO COM  LETRA "MAIOR";  "MENOR" INDICA AÇÃO DE BANDIDO DESCONHECIDO SABOTAGEM NA CONTA


   Modelos científicos

                                    Eliane de Morais





                O termo “Teoria” vem sendo usado desde a segunda metade do século XX até agora, na acepção de modelo científico. O que demarca uma especificidade com relação aos milênios do seu uso na cultura letrada ocidental. Examinando algo desse uso, podemos apreciar a irredutibilidade de que se trata na atualidade.
             Como se sabe, a origem dessa cultura se atribui precisamente pela introdução do uso da palavra “teoria”, na consistência da filosofia grega que se inicia pela altura do século VII ac., tornando-se referencial a partir do platonismo, entre os séculos V e VI ac.
           Na origem do emprego do termo, o platonismo, “teoria” tornou-se o mesmo que ciência (episteme), como o instrumento da cientificidade. Com esse instrumento terminológico, Platão se opôs à relativização da possibilidade de conhecer universalmente, isto é, independente das diferenças pessoais que espelham a complexidade infinita da natureza, como concepção a que a filosofia tinha chegado com os “sofistas”, no ponto em que ele começou a produzir.

          O Ocidente se tornou, ao longo dos tempos, configurado como a única cultura a produzir sistematicamente a ciência, mas quando esse tipo de juízo tornou-se formulável, a palavra “ciência” já tinha um sentido muito irredutível ao que pensava Platão dominar através da “teoria”.
             Não pretendo aqui discutir os aspectos específicos da filosofia platônica, e seus desdobramentos polêmicos nos meios de produção conceitual grego antiga, ainda que seja o crucial para o uso do termo por dois milênios. Ocorre que em todo esse longo período, a ciência não era o que estamos acostumados a pensar, desde a era “moderna” que se inicia com o “método experimental” de Galileu, entre os séculos XVI e XVII. Ela não era algo separado da filosofia, porque não tinha esse método próprio de tratamento dos fenômenos.
             Quando a ciência, desde Galileu, veio a se tornar o que é hoje, o Ocidente ficou sendo não apenas a cultura que produz a ciência nessa acepção moderna, mas a cultura cuja origem é a filosofia grega antiga, em função de que mais tarde se especializou algo como a ciência. Isso, uma vez que houve na Grécia uma origem da problemática em torno da possibilidade de qualquer “episteme”, ou ciência, como vimos. A “episteme”, em termos mais básicos possíveis, independente de toda diferença de método, implica conhecimento certo, universal, inversamente a “opinião”, ou conhecimento apenas circunstancial de algo que pode depois mudar.
            Essa unificação do Ocidente científico na acepção moderna, enquanto o que tem uma origem na filosofia grega, contudo, pode ser para alguns evidentemente “discursiva”, ou seja, projeta na linguagem uma unidade algo fictícia do objeto do discurso. Na verdade, a separação de filosofia e ciência, a partir da inviabilização da filosofia pura, inviabilização que torna a ciência (experimental) possível, é o fenômeno histórico efetivo, mas assim não há uma unidade do “ocidente” desde os gregos, ao contrário da fable convenue.
             A própria importância histórica do platonismo, devido a circunstâncias ligadas à sucessão dos tempos “antigos” à “idade média” (séc. V dc a XV) e não devido a algum predomínio sobre os cultores não-platônicos da filosofia antiga, implicou a impossibilidade da ciência experimental e consequentemente o predomínio da filosofia. Enquanto “teoria” foi utilizada na acepção filosófica platônica, o não haver do método experimental não era apenas decorrência negativa, provisória, mas o resultado de algo concreto, a concepção do conhecimento como tendo por objeto ideias inteiramente modelares, inatas à mente, que não podiam ser obtidas por qualquer contato com fenômenos materiais, mas apenas por autorreflexão. 
           Essa reflexão era a “teoria”, que em grego significa “contemplação”, tendo as ideias por objeto “contemplado” por meio da elaboração “teórica”, a prática depurada da linguagem aplicada a resolução de problemas girando em torno da definição de um termo.
          Assim é coerente a história efetiva. Platão foi, na Grécia antiga, violentamente contra a democracia, sustentando na República a defesa de um despotismo esclarecido, e Aristóteles, nominalmente democrata, na verdade pregava um governo de homens ricos. Na Grécia, ambos eram escravocratas convictos, contrariamente aos sofistas democratas contra quem eles pregavam. 

           O argumento epistemológico servia inteiramente à causa deles como oligarcas, contra os sofistas democratas. Conforme  os democratas, nossas percepções governam nossas ideias, mas são relativas a experiências pessoais. Se Platão e Aristóteles negavam esse relativismo, para eles igualmente o poder era algo definido pela posição social que como tudo o mais, também não era função da opinião e sim do dever-ser.
         O governo papal despótico da era “feudal”, que unira ao cristianismo, Platão e Aristóteles, impedia a ciência assim como qualquer desacordo do pensamento com o dogma da igreja católica, sob pena de tortura ou ser torrado vivo na fogueira inquisitorial. O domínio feudal do papado foi destronado nos inícios da era moderna, na “Renascença” dos estudos leigos, quando Galileu e o método experimental emergem. Começou na Renascença a era das soberanias nacionais.
            Os governos que adotaram a “reforma” protestante e inglesa ortodoxa permitiram a pesquisa científica em seus países já emancipados da tutela papal, ainda que conservassem a inquisição contra “hereges” no plano das crenças religiosas. Os protestante não eram pois tolerantes com o que consideravam heresia ou bruxaria, tendo inquisições que aplicavam as mesmas torturas e condenações à fogueira, que os católicos. Além disso, na atualidade, mesmo não tendo oficialmente papel estatal, os protestantes tem rompido a tradição de não-intervenção na ciência para lançar-se ferozmente contra a teoria da evolução biológica.

         Os países não reformados na Europa, como Portugal e Espanha, ficaram totalmente à margem do progresso econômico-científico industrializante. Nestes países ibéricos “contra-reformados”, mesmo após o medievo grassou terrível inquisição, como reação, enquanto na Renascença havia ocorrido um certo progresso na mentalidade papal.
          Porém, de um modo geral, só com o século XIX houve total separação de igreja e Estado, com o resultado da sociedade constitucional e democrática contemporânea, onde a ciência é uma das funções organizacionais e há liberdade de consciência entre os direitos civis garantidos.
            O que não pretendo discutir aqui é a história da filosofia como um todo, não apenas o platonismo e seus desdobramentos na patrística e escolástica cristãs medievais, apenas sendo necessário enfatizar que na verdade o platonismo foi sempre objetado por filósofos e críticos com vistas à valorização dos fenômenos materiais na Antiguidade. Meus estudos sobre a história da filosofia como um todo tem um inegável sabor não-platônico, porém aqui estamos desenvolvendo um aspecto específico da história da cultura ocidental.
             O que precisamos reter é então apenas que a filosofia antiga como um todo é que se tornou recalcada pelo cristianismo feudal que preservou algo do platonismo e aristotelismo porque convinha à sua dogmática idealista, à sua condenação da “carne” e do mundo fenomênico, e por isso, para muitos “filosofia” tornou-se erroneamente sinônimo de platonismo.
            Aqui, feita a ressalva, nosso escopo prende-se à questão da “teoria” conforme o desdobramento histórico que estamos examinando, da filosofia à ciência como práticas dominantes de produção do que é considerado “saber”.                
            Creio que não há na modernidade científica quem acredite seriamente na episteme como “contemplação” de ideias puras, ou na “teoria” como um método de depuração da parte dos fenômenos na linguagem, mas o platonismo como um problema epistemológico contra o relativismo, entre o que é inato e o que é adquirido, não foi suprimido apenas porque na modernidade todo conteúdo de conhecimento é atribuído fenomênico, e não “puro”  (ideal).
           O platonismo antigo como defesa do universal inato, se tornou na modernidade “racionalismo”, como o de Descartes, em que mesmo atualizando-se por meio da experiência dos fenômenos, o intelecto funciona por princípios próprios, formais (ideais). O empirismo, como de Galileu, Hobbes e Locke em diante, inversamente, supõe que a experiência material é o meio em que o funcionamento do intelecto se constrói. O que o intelecto produz, para o racionalista, é não só universal como indubitavelmente certo e verdadeiro. Segundo o empirista, é universal apenas na acepção de ser consensual, porque em contato com o mundo dos sentidos, o espírito humano se comporta sempre de um certo modo, mas não se pode garantir que as coisas em si mesmas sejam conforme à experiência humana. Essa é uma originalidade da modernidade.

             A experiência dos antigos, ainda que afirmada por não-platônicos, nunca chegou à noção de leis constantes do espírito na recepção dos fenômenos. Nem mesmo à noção de leis da natureza - o universal era a ideia da coisa, não lei de produção dela. Assim também devemos notar que só com o Renascimento e Galileu a experiência, na acepção de vivido material, pode ser convertida em  método científico, a indução de situações para provar determinada hipótese.
            Em todo caso, ninguém mais supõe, desde Galileu até agora, que sem a mediação dos fenômenos a sistematicidade do intelecto pode se exercer como produção epistêmica. Descartes foi um apaixonado pela fisiologia, por exemplo. O seu “dualismo” radical de espírito e matéria fizera do material um campo sem ação própria, mas como natureza seria regida por leis mecânicas, como maquinismo reduzidas a razão matemática, intelectual. Só o espiritual é ativo, não apenas figura e número, mas relações ideais.
               Se para muitos de nós na modernidade, é difícil entender como alguém poderia, à Platão, supor que a verdade se encontra em nós apenas se apartarmos totalmente as impressões dos sentidos, como acreditava-se na Antiguidade, o dualismo cartesiano que conserva a seu modo o inatismo universal ("metafísica") é igualmente ambíguo – porque a matéria é ao mesmo tempo irracional e mecanicista.
             Porém vemos que o “racionalismo” que se inicia com Descartes é apenas uma modulação do idealismo platônico, já numa era em que Galileu e os empiristas estavam demonstrando que conhecimento invariável pode ser obtido da observação dos fenômenos, e inclusive de um tipo apto a refutar realmente princípios supostos inabaláveis, hauridos porém da dedução pura, como a física do movimento aristotélica, lembrando que Aristóteles foi um discípulo de Platão. A essa altura, a cosmologia aristotélica geocêntrica, suposta a mais racional, estava também superada pelo poder da observação dos corpos celestes a partir dos progressos da ótica e da invenção dos primeiros “telescópios”.

               A “teoria” na acepção original de instrumento epistêmico substituiu-se, pois, logo após a Idade Média, pelo "método" científico. E desde meados do século XVIII, consolidando-se com o século XIX, houve a total desvinculação da ciência com relação a qualquer unidade “teórica”, isto é, filosófica, que deva explicar o seu lugar no universo do saber ou a legitimidade do Saber humano no universo como um todo.
             Ainda nos tempos de Newton (sec. XVII), que tanto contribuiu para essa nova era histórica que designamos contemporaneidade ou “modernidade” em senso estrito, a física era pensada em conexão com o problema da existência de Deus, aparentada à alquimia, uma linguagem medieval, mística, espiritualista, que antropomorfiza o comportamento dos elementos naturais, mais ou menos clandestina numa sociedade predominantemente papal. Dos tempos de Hegel (séc. XIX) em diante, a filosofia, autonomizada, subsiste em torno da conceituação de problemas gerais, não especificamente científicos, mas o real que tematiza é aquele que, em cada tema de que se trata, vem enunciado como tal pelo que dele diz a ciência correlata. As ciências são autônomas, construídas cada uma em torno de um objeto e das práticas de investigação dele. Não há mais autoridade religiosa que seja, ao mesmo tempo, autoridade política e científica.
               Assim, desde Galileu até agora, a epistemologia como teoria da ciência (como a ciência se faz e o que ela é), a gnoseologia como teoria do conhecimento (se e como podemos conhecer os fenômenos), e até mesmo a história da cultura e da ciência, operaram o retorno do termo “teoria”, junto à transposição do antigo uso desse termo para um novo, posto não só subsistirem problemáticas mais gerais, mas a própria ciência reconstituir o problema do conhecimento. O método experimental não explica-se a si mesmo, ele apenas explica o resultado obtido – que o resultado é “científico”, é circularmente ou terminologicamente resultado da aplicação deste método. Em todo caso, como vimos, por razões históricas a ciência na “modernidade” é vinculada à ordem dos fenômenos materiais, e, portanto, ela motiva a “teoria” segundo um novo uso do termo, como questionamento de problemáticas mais gerais ou da própria constituição da ciência.
         Nesse novo uso específico, a “teoria” não se circunscreve à “contemplação” de ideias “puras”. Porém, ela não é “ciência” enquanto método científico, o que como veremos, também guarda um uso atual para "teoria". Enquanto apenas problemática da ciência, então o termo encerra uma região exclusiva da reflexão sobre o modo de ser dos fenômenos, permanecendo uma relação com os fenômenos que não é o método experimental.
             Ainda que o modo como em geral obtemos relação inteligível com os fenômenos dados como tais, se ideal, perceptivo ou comportamental, por exemplo, seja o que está em questão, vemos que seja como for há correlatos de reflexão que não são passíveis de tratamento pelo método experimental, não são redutíveis a um “objeto” nesse sentido.

            O próprio termo “reflexão” foi por vezes questionado como adequado a “teoria” nessa nova acepção do termo. Pois não há apenas a problematização de algo existencialmente posto, como o relacionamento cognitivo de homem e mundo, ou a atribuição de sentido e valor aos fenômenos, o problema do mal, o substrato da crença em Deus, a oposição de cultura em geral e ciência em particular, etc. Há também aquilo que habitualmente é o que motiva a problematização, a proposta de soluções destes problemas num quadro maior que é a moldura filosófica construída pelo teórico.       
            A natureza da construção ela mesma, pois, é um problema teórico, ou meta-teórico. Assim, para alguns ela não é “reflexiva” como se almejando atinar com algo que preexiste, é criativa pois se conjuga com o intuído apenas para produzir algo novo, inversamente aos que consideram “reflexão” o melhor sinônimo para “teoria” nesse sentido. Ou, para outros ainda, a própria mente funciona conforme aparato sistemático que é o determinante do resultado, esse algo sendo irredutível a “reflexão” de uma espontaneidade subjetiva. Além de todos os citados que se opõem ao termo “reflexão”, que constatamos tampouco ser unívoco, há também os que consideram que a “teoria” é uma relação com a experiência, de algum modo.
             Nesse novo uso do termo “teoria”, em todo caso, há conexão com um outro modo pelo qual ele foi conservado, mesmo quando já não suposta a filosofia método "epistêmico"  (científico).  E se bem que o uso do termo “teoria” que vimos coalescer na modernidade, não necessariamente seja do reino da simples opinião. Pode haver teoria relativizando a possibilidade do conhecimento, mas não é sempre o caso, e de hábito ela é uma linguagem de elaboração conceitual demonstrável, por sua coerência interna e adequação ao que se supõe ser o real.
             Agora estamos notando que ao lado desse novo uso da “teoria”, na era da ciência um outro foi também estabelecido. Esse outro uso é mais popularizado, especialmente em países não especialmente “letrados”, isto é, países “subdesenvolvidos” onde a cultura local, não-científica nem originariamente filosófica, foi entretanto recalcada para inculcar-se, na educação e na mídia, a ciência importada como tecnologia, porém sem correlatos meios de produção científica, apenas como uma ideologia fetichicizada por grupos que assim compõe um discurso de “classe-status”. Grupos que na prática operam o recalque das forças produtivas a fim de disponibilizá-las à exploração imperialista, geralmente após um período de dominação religiosa colonialista.

              Ou seja, esse uso é sempre popularizado na era moderna, porém muito mais onde não há noção clara da irredutibilidade de “cultura”  (quaisquer expressão simbólica, como artes, práticas rituais, etc.) e “ciência”, o que não significa que tudo é ciência nesse caso, mas sim que a ciência está supersticiosamente confundida com qualquer atividade de sentido humana. Entre os séculos XIX e inícios do XX alguns dos próprios cientistas pensavam assim, mas alguns não sustentaram essa concepção, e, depois, tornou-se generalizada a irredutibilidade mencionada. 
             Esse novo uso é o correlato de quando se fala em “teoria científica”. O esclarecimento desse uso se imbrica às questões que salientamos, como não apenas irredutíveis à objetividade experimental, também geradas por esta, e, especialmente, o problema do conhecimento. É o tema deste estudo.


    II


                        O método experimental que criou a ciência moderna consiste na indução de uma situação observável com objetivo de esclarecer uma hipótese ou exibir um comportamento que se quer observar. Assim ele só pode ser aplicado para testagem de hipóteses dentro de uma gama de objetos concretamente manipuláveis dessa forma. Mas a hipótese não é algo que vale por si, ela faz parte de algo mais amplo que é a explicação de uma série de acontecimentos e fatos supostos concretos, a partir de sua interligação como um fenômeno.
          A interpretação desse conjunto de coisas que as unifica como partes de um todo, produz portanto o fenômeno conceituado. A produção é científica porque o que nela é interligado não é algo qualquer, mas o que pode ser suposto preexistir na objetividade, e ser por qualquer pessoa atribuída mentalmente sã, assim constatável preexistir ao enunciado daquele que as uniu na linguagem, mesmo que ninguém o tenha enunciado antes.

            Ora, que elas estão aí, concretamente, não implica que a junção que as faz partes de um fenômeno conceituado preexista na forma da experiência vivida dessas coisas, por qualquer pessoa mentalmente sã.
           Pelo contrário, a junção em função de serem partes do fenômeno é a descoberta científica em si mesma, a qual será reconhecida como a descoberta desse fenômeno, para o qual geralmente se cria um nome novo, suposto adequado, já que como fenômeno não se o enunciou antes. Ele, assim, não é a coisa concreta, o fato evidente, ainda que se possa afirmar que é concreto como valor de experiência científica se esta não o inviabilizar como resultado da indução situada.              
            O conceito científico do fenômeno é pois considerado “teórico”, a ciência mesma, a “teoria” que une os fatos como objetos de um campo de investigação especializado e em função de que se efetivam as práticas de investigação. E as hipóteses em função de que se induzem situações experimentais, são elas mesmas por vezes ditas “teorias” na acepção de consequências localizadas, na forma de predições possíveis, da “teoria científica" de que se trata. É nesse sentido que "teoria" é o mesmo que "modelo científico". O termo "modelo" traduzido como derivado do grego é "paradigma".
            Todas as categorias do questionável, que vimos cercarem a relação cognitiva de homem e mundo, são pois transportáveis para o âmbito da própria “teoria científica”. A controvérsia crucial de racionalismo e empirismo se desdobra em inúmeras questões indeslocáveis, como por exemplo, se o que uma “teoria científica” faz é retratar algo que existe assim como ela o enuncia, ou criar meios de lidar com uma realidade que permanece à parte do conhecimento, ainda que sempre responda conforme a previsibilidade do campo teórico; se, de um modo ou de outro, o que se faz é criar algo novo, posto que mesmo que o objeto seja preexistente, a ciência mesma não é, ou inversamente, o que ocorre é que uma vez a realidade abarcando os objetos, a ciência mesma era previsível como um resultado objetivo na ordem da realidade.           
           Sobretudo, o retorno da “teoria” nesse novo uso, realmente atua como retorno de proposições subjacentes ao seu uso originário, mesmo que num contexto de mentalidade irredutível ao antigo. A montagem do “discurso” - a fable convenue - da ciência como unidade da tradição ocidental principia aqui.
        

      III) 

        O fato concreto do advento do método experimental desde Galileu, fato que é ao mesmo tempo a ruptura mais total para com o princípio dedutivista-idealista do platonismo e aristotelismo, enfeixados no que designamos “metafísica” ou filosofia como metafísica, fica obnubilado pela reconceituação da ciência como sistematicidade do tratamento dos fenômenos. Mais do que tudo, a linguagem matemática sendo essa sistematicidade, volta a ser para alguns estabelecida como um campo ideal “puro”.
         Há quem tencione manter a própria matemática como um construto da mente em conexão com a experiência dos sentidos, mas do mesmo modo que a tese idealista oposta, não se pode decidir com base nos fenômenos externos.
            Alguns teóricos se insurgem, pois, contra essa reconfiguração dos acontecimentos históricos, e mesmo há matemáticos, como Connes, que insistem no fato de que a física não é redutível à matemática – não apenas físicos protestando que fazem mais do que os matemáticos. Porém é paradoxal que nem sempre os protestos sejam no sentido epistemológico esperado. Um físico pode protestar assim não por se um empirista, mas porque deseja o renome de ter, na própria física, restaurado o racionalismo, e não depender apenas da matemática para isso.

              A construção da objetividade na mente do homem tem sido também visada em função não do que é apenas inato, mas do desenvolvimento de práticas, mas como nas teorias construtivistas de Bachelard, Canguilhem e Piaget. Não numa base puramente empirista, pela qual a qualquer momento uma prática se torna o trampolim de uma ideia, mas por sucessivos lances psiquicamente organizacionais, que criam irredutíveis “mentalidades” até o poder da cientificização plena quando alcançamos a maturidade psíquica. Para Piaget, pesquisando o desenvolvimento da pessoa, na adolescência. Para Bachelard e Canguilhem, pesquisando a história da ciência, na modernidade.
           Piaget fez a homologia da história da ciência e do desenvolvimento da pessoa, constatando as mesmas fases. O que implica que qualquer sociedade "pré-científica" (não moderna-ocidental), tem seus membros estacionados nas fases infantis do desenvolvimento. A homologia piagetiana é prática comum na psicologia e psicanálise, ainda que cada escola tratando de modo próprio cada uma das fases.
            Ainda assim, mesmo os três citados epistemólogos construtivistas não estão dispostos a afirmar que o fato histórico da irrupção do método experimental é suficiente para o objetivo de elucidar o que é a ciência na acepção moderna do termo. Eles apenas pretendem estar produzindo uma epistemologia nova, para explicar uma ciência que não havia antes na inteira antropologia conhecida, mas como na tendência oposta, a idealista, não denegam ao platonismo o caráter de alicerce na construção da ciência, assim unicamente “ocidental”. Como vimos, por ter o platonismo estabelecido a episteme como produção racional.

            O método experimental é um novo equilíbrio da razão, conquistado pelo acúmulo das práticas que produzem o desenvolvimento interno da razão, mas esse novo momento não teria sido possível sem uma aposta “idealista” inicial na razão. ainda que inicialmente equivocada. Pois só retificações sucessivas sobre  uma hipótese válida poderia levar ao resultado ótimo. E a hipótese válida, nesse caso, uma vez que é ele o próprio desenvolvimento da mente, teria necessariamente que acontecer.
         Nessa tendência, a ciência historicamente produzida, assim como a conquista dos poderes intelectuais pela criança até se tornar madura, não é redutível à sensibilidade. Enquanto na tendência oposta, os empiristas sempre sustentarão que é.
         A homologia da história da ciência e da formação psíquica pessoal, porém, não implica a imagem de uma ciência cujos conteúdos seriam identicamente conquistados de forma gradual. São só as estruturas formais operatórias na mente, que constroem a homologia, conforme o construtivista as propõem. Como se sabe, "homologia" não é meramente "comparação" (analogia), mas real coincidência da sucessão das fases estruturais. 

          Não obstante, com o construtivismo a ciência mostrou sua evolução de fato independente da mente individual, ocorrendo num plano de práticas, descobertas e instrumentos acumulando-se no tempo. Essa independência se manifesta em nível de conteúdos e  contextos da descoberta.
                Independente desse nível da          problematização "gnoseológica", compreende-se que as próprias “teorias científicas” são sempre propostas controvertidamente. O fenômeno conceituado que uma teoria científica afirma existir é incompatível com o fenômeno que a teoria alternativa afirma ser o caso conforme conceitua, ambas com relação a um mesmo objeto. Como a generalidade alcançada pelo enunciado da teoria científica é a máxima dentro da limitação da concretude e experimentação indutiva dos fatos, vemos que esta nem sempre é suficiente para a decisão “teórica” - da ciência mesma como um corpo de práticas orientadas por qualquer das duas.
            Assim creio que, inversamente a alguns críticos, a transição do critério de cientificidade de um enunciado, da “testabilidade” ou “verificacionismo” para a “falseabilidade”, desde Karl Popper, é algo bastante útil.

           O primeiro critério teve Maurice Schlick como formulador, mas também o jovem Wittgenstein e muitos outros num certo momento em que, como salientei acima, esteve no auge o movimento cientificista, que desqualificara tudo o mais na cultura como sem sentido. Conforme esse princípio, um enunciado é científico se passível de verificação – assim, “a água ferve a cem graus em condições específicas” é científico, “Deus existe”, não é científico. Nessa primeira formulação, pois, o enunciado que não é científico simplesmente não tem sentido.
             Quando Popper argumentou contra esse critério já se estava frente a demais críticas em trânsito nesse ínterim, como a que observou que o próprio enunciado de que “só os enunciados verificáveis são científicos”, não é verificável, portanto não seria científico, seria sem sentido. Popper observou que de fato nenhum enunciado científico é “verificável” ou “testável”, no sentido de haver algum experimento que inviabilizasse quaisquer experimentos futuros que o falseassem, isto é, o invalidassem refutando-o. Popper redefiniu o campo das teorias científicas em termos delas serem apenas “falseáveis”, isto é, poder sempre haver um experimento futuro que refute o que ela prevê.  Como se pode notar, “Deus existe” continua não científico. Assim também "O mundo foi criado por Deus" é irredutível a qualquer teste pensável que o refutasse ou  provisoriamente confirmasse. Podemos crer que sim, porém é apenas matéria de fé. Popper concede sentido à cultura independente da ciência.

           Enquanto uma teoria não é falseada por um experimento, ela é válida. Se ela for falseada, torna-se inválida, mas permanece sendo uma “teoria científica”. Repetindo, jamais se torna algo sem sentido, nem mesmo algo não-científico. Pois, o que não é científico é apenas o que não poderia jamais ser falseado por qualquer experimento.
              Porém nenhum dos usos do termo “teoria”, dentre os que examinamos acima, esclarece aquele que se tornou utilizável desde a segunda metade do século XX até agora, como o que pretendo questionar quanto às realizações e condições discursivas. Esse uso mostrou-se muito mais impreciso, e, não obstante, extremamente difundido e historicamente importante, de fato resumindo o cenário da história das ideias (história da cultura) dessa época, de modo que um exame está sendo necessário.


     IV)   

            Podemos começar a tarefa de apreender o sentido do termo “teoria” que é ulterior a todos os já mencionados até agora, observando que entre as “teorias científicas”, ocorreu que algumas se tornaram paradigmáticas enquanto puderam, ao se propagar, resumir toda a prática de uma ciência que então só se torna o que é pelo acontecimento da propagação e adoção dessa teoria. A física de Galileu e Newton, é uma teoria assim.
        Thomas Khun conceituou a teoria científica como um acontecimento desse gênero. A emergência da teoria que unifica um campo inteiro de pesquisa, campo que antes estava disperso entre várias perspectivas e métodos. E designou como revolução científica a transformação que a teoria emergente opera num campo anteriormente não unificado ou dominado por uma outra teoria que, contudo, vinha exibindo lacunas, conceituadas “anomalias”, quanto ao potencial explicativo.
             Na primeira forma, havia uma soma de explicações concorrentes, possivelmente nem todas científicas, como era a física antes de Galileu e Newton, e, então, a teoria emergente logra reunir alternativas, ao mesmo tempo que fornece uma explicação nova. Faz-se uma ciência, posto que antes não havia um campo unificado.
              Na segunda forma, a expressão "revolução científica" é aplicada em sentido kuhniano mais estrito. Não significa o surgimento histórico de uma ciência, mas a substituição de um domínio científico, regido por uma teoria, por outro, regido por outra teoria. À medida em que fatos vão se tornando conhecidos ou arrolados num campo de investigação específico, a teoria existente precisa ter elasticidade bastante para explicá-los a todos. Porém não é o que por vezes ocorre, e a acumulação de fatos descobertos posteriormente àqueles com que uma teoria lidava ao se constituir, tende a exibir impossibilidade de serem explicados na mesma moldura.
           Como de hábito, deixam-se as “anomalias” para depois, uma vez que a teoria dominante é útil para o que já se conhece, e nada muda até que, por um lado, a soma de “anomalias” se torna demasiado significativa, e, por outro lado, emerge uma teoria que as equacionou de modo a poder explicá-las na sua nova moldura. O século XX demonstrou exatamente uma revolução assim com a física de Einstein, relativamente à de Newton-Galileu.
            Porém, um aspecto não kuhniano da problemática das teorias científicas, e mais popperiano a meu ver, é o seu caráter intrinsecamente controvertido, o que as torna adequadas a uma terminologia como a de Gilles Deleuze - ainda que sem obrigar o compromisso com a totalidade de sua filosofia. Segundo Deleuze, na literatura Proust teria demonstrado a memória como produção de sentido, que só subssume os acontecimentos sob sua perspectiva, e assim cada pessoa, em função de sua memória pessoal, constituiria um “mundo possível”. O que o escritor pretende reconstituir não é um mundo generalizado, com as diferenças pessoais nele, mas o “mundo possível” do personagem, ou de si mesmo como autor implícito.
          As teorias científicas na perspectiva de Kuhn, a meu ver poderiam ser conceituadas também como “mundos possíveis”, não diferentes propostas de explicação de fenômenos de um mesmo mundo de sentido generalizável.
           Mas assim o aspecto kuhniano da sucessão não é preponderante em relação ao aspecto popperiano da coexistência do falseável – independente da validez. À revolução que podemos aqui designar  “kuhniana” da relatividade, com Einstein, isto é, que poderia ser vista apenas como um paradigma que suplantou o anterior, seguiu-se a revolução designável “popperiana” da mecânica quântica de Heisemberg e Bohr, a qual interpõe uma visão do fenômeno “físico” bastante irredutível à relativista einsteiniana. Porém nenhuma das duas pôde refutar cabalmente à outra enquanto paradigmas dominantes, mesmo na atualidade.    
          Não se mantem a interpretação de que na verdade não há tanta irredutibilidade, pois um relativismo radical se compatibilizaria com a “incerteza” que reina em nível subatômico – pois não se pode prever ou explicar o salto da partícula, ou mensurar ao mesmo tempo sua posição e velocidade.
          Inversamente, podemos notar que Einstein em seu livro (“Como vejo o mundo”, Rio de Janeiro, nova fronteira, 1981) não estava errado ao demarcar sua oposição à mecânica quântica enquanto algo profundamente oposto à sua “teoria” relativista. Ele chega a citar Paul Dirac, como um apoio à sua recusa de cientificidade à mecânica quântica: "seria quase ilusório descrever teoricamente um fóton, já que nesta descrição faltaria a razão suficiente para afirmar que ele poderá ou não passar por um polarizador colocado obliquamente em sua trajetória" - grifei o que me parece o principalmente útil a Einstein nessa referência. Salientando porém que a recusa desses dois cientistas não foi bastante para provar o caráter não científico da física quântica.
             O problema, pois, não é que não há  real irredutibilidade entre as duas teorias, quântica e relativista, mas que em função desta irredutibilidade se tentou destituir de cientificidade a “teoria” oposta, e isto foi o que tentou fazer Einstein.          
             Einstein faz nomeadamente apelo a Aristóteles, à própria metafísica nesse trecho, para embasar o princípio epistemológico da cientificidade em termos de causa, mas na verdade “razão suficiente” é um conceito moderno, formulado por Leibniz, segundo o qual tudo o que existe tem uma razão pela qual existe. Ou seja, já especificado para uma visão de fenômenos muito mais vasta e complexa em relação ao mundo fechado aristotélico. Portanto já envolvido com o problema que David Hume desenvolveu ao máximo, a saber, como entender conexões interfenomênicas que por serem complexas mostram a insuficiência de um pensamento inteiramente baseado na noção ambígua de “causa” - como era o de Aristóteles.
           De fato, essa noção já havia sido criticada na própria antiguidade. Sexto Empírico, da escola cética, examinando as teorias a propósito então, registrou a crítica pela qual se algo é causa, é unicamente em relação a um efeito, e então o efeito é anterior à sua causa.
            Hume mostrou que um fenômeno e seus próprios componentes não pode ser decomposto em termos de causa e efeito. Uma caixa de fósforos achada numa ilha até aí considerada deserta não tem como causa o fato de alguém tê-la deixado lá, pois que esse alguém a deixou lá é o próprio fenômeno dela estar lá. Além disso, as miríades de fatos interligados num fenômeno tornaria simplista apontar um só como condicionante dele. Parece assim porque abstraímos os demais.
             Como bom empirista, Hume estava interessado em mostrar que princípios supostos universais, como o da razão suficiente, são derivados do nosso modo de ser ao lidar com os fenômenos. Nós extrapolamos da constância da contiguidade de fatos na nossa experiência, a noção de causa, e desse princípio generalizamos a razão suficiente, mas tais generalidades não necessariamente residem nas coisas mesmas.
           O século de Hume, após o cartesiano, foi anti-racionalista. Assistiu ao triunfo da física de Newton, que refutava a de Descartes, e em consequência também da necessidade histórica do ideário liberal, adotou Locke como o seu modelo. É o século das Luzes, o Iluminismo, o ímpeto empirista-cientificista que varreu o mundo, que jamais voltou a ser como antes.

          Voltaire é um dos seus expoentes máximos. As pessoas costumam pensar neste século XVIII  como a era da “razão”, militante então contra as trevas das superstições e credos religiosos, mas “racionalismo”, como se pode notar, é o oposto do termo exato nesse caso. Na verdade, é a era do "empirismo". Em termos mais históricos que epistemológicos ou culturais, é a ruptura de qualquer dependência da ciência, seja  relativamente à metafísica, à religião ou ao preconceito comum. É nesse sentido que devemos entender  o Iluminismo como era da "Razão". O que vimos até aqui permite entender porque, do mesmo modo, nesse século ocorreu a superação do "antigo regime" aristocrático-despótico, e implementou-se a democracia em sentido moderno.            
          Mas talvez devido à incongruência assim gerada entre os termos "razão" e "racionalismo", Kant, motivado pelo brilho que Hume havia logrado emprestar ao empirismo, empreendeu a tarefa que julgou necessária, de conciliar “racionalismo” e “empirismo”. Tornou possível assim o retorno do que vimos como o que poderia ser designado grosso modo  neo-idealismo, mesmo na era da democracia e da ciência material independente.

        Formulou a “crítica da razão pura”, para alguns obra de um pré- “crítico” empirista, para outros, de um pré- “crítico” racionalista. Sua conciliação criou o “transcendental” ou “a priori” - ainda que de fato não devessem ser sempre sinônimos, mesmo Kant por vezes os utilizava assim. A razão se exerce em todos os níveis do contato da mente com a realidade, inclusive a percepção, regrada por formas “a priori” de tempo e espaço. Assim ao contrário do empirismo puro, a razão não são constantes do espírito que se organizam porém apenas em contato com os dados dos sentidos e de acordo com o modo como interagimos com eles. Os dados são preconcebidos por nós. As categorias do entendimento unificam o percebido conforme relações lógicas. Mas a realidade das coisas em si é noumeno, incognoscível, como convém ao empirismo, e não ao racionalismo clássico, para o qual a realidade é apenas o racional cognoscível por ideias inatas.
             Não obstante, a experiência sempre responderá conforme as regras da Razão transcendental. Esse termo, transcendental,  significa“condição de possibilidade” da experiência. Esta, portanto, não condiciona o transcendental. Ele é não-condicionado e só nele reside o sentido.         
          Após o incondicionado descoberto por Kant, uma plêiade de pensadores dentre os quais se destacam Fichte, Schelling e Hegel, consolidaram o cenário “pós-kantiano” ou romântico, ao re-interpretarem o transcendental em termos de Subjetividade. Agora não havia um intelecto clássico ordenando a experiência, mas a mente se tornou a do sujeito situado, orgânica e historicamente. O transcendental kantiano se transformou na mente pensante, e esta sempre é a de um "eu" que pensa.
           A própria auto-concepção como sujeito é transcendental, porém a formalidade deste a priori da experiência não elide a circunstancialidade da experiência do ser humano enquanto cultural, sujeito de uma língua. As ciências humanas nascem nesse momento, devido a essa revolução metodológica, algo motivada pelo kantismo, algo pela superação do formalismo universal kantiano.
            A subjetividade pensável não é como qualquer outro fator anterior na história das ideias filosóficas, que podem exibir conexões com conteúdos religiosos, ou científicos de outras culturas. Ao que se sabe, uma psicologia do sujeito, o sujeito pensável, só emerge na “modernidade” ocidental, isto é, desde o Romantismo europeu.

             As ciências humanas reinterpretam, portanto, todas as constantes até então propostas na filosofia para explicar como conhecemos, em função do modo como um sujeito é situado num mundo sócio-cultural político e histórico. Vimos que a crítica empirista das ideias inatas atuou como uma espécie de proto-psicologia da mente em funcionamento para ordenar o mundo, porém nas ciências humanas há ultrapassagem do limite da "ideia". Alcança-se a pesquisa dos processos e das mudanças.
            Com relação à crítica causa, por exemplo, em ciências humanas é bastante conhecido o fato de que o que é designado causa aparece depois como o próprio efeito, e vice-versa, assim como Rumney e Maier (“Manual de sociologia”, Rio de Janeiro, Zahar, 1966, p. 34) observaram: “na esfera social, a causa pode ser o efeito e o efeito a causa. Assim, se dissermos que os salários baixos causam a pobreza, podemos também dizer que a pobreza é a causa dos salários baixos. Se dissermos que a falta do desenvolvimento técnico foi em parte motivada pela escravidão, podemos também argumentar que a própria escravidão se deveu à falta de desenvolvimento técnico...”. E os autores complementam, com um exemplo de relações privadas. Quando se explica um divórcio pela falta de filhos, também se poderia explicar a falta de filhos por outros fatos relativos ao divórcio.                    
          Rumney e Maier não estão interessados em desqualificar a sociologia como ciência, útil na solução de problemas sociais. Ao contrário, usam o exemplo do martelo. Se alguém supor que uma chapa de ferro empenada de um lado se aplainará se bater com o martelo em cima da saliência, na borda lateral, se surpreenderá porque não só a saliência não cede, e cresce, como a chapa fica sempre menos plana. Ela começa a entortar também do outro lado. Quem conhece o assunto aconselharia a usar o martelo em várias direções e com intensidade variável, em outros lugares, numa ação indireta, não diretamente na saliência. Assim concebem que a sociologia é como esse conhecimento do assunto, o inverso das tentativas de trata-lo de forma simplista.  

            Porém menos fácil é atacar ideias arraigadas sobre a universalidade, como a concepção platônica de essência (forma) e a noção aristotélica de causa, nas ciências naturais. Os próprios autores citados creem que nesse domínio tais ideias conservam validez, pois nas “ciências físicas” seria “mais ou menos fácil isolar os fatores de um problema oposto” (p. 34).


       V)

      A constância de princípios idealistas na ciência, como vimos, é mais fácil ser superada nas ciências humanas do que nas ciências naturais. Quando a mecânica quântica encontrou motivos para crer que alguma superação profunda era necessária, vimos que ocorreu uma séria cisão na física em nível epistemológico, e não apenas derivada da duplicação dos modelos de pesquisa,   quântico e relativista.
           O cenário atual, abarca um novo campo de pesquisa, designado "ciência do caos". Já é posterior à  controvérsia entre relatividade e incerteza, porém não indiferente a ela. Com o "caos", rompeu-se o aparente acordo de cavalheiros que se seguiu à fase inicial da pesquisa quântica. Por aquele acordo, a física ficou unificada pró-forma como ciência objetiva - - experimental e matemática -  existindo desde Galileu e Newton, mas na verdade duplicada em dois modelos irredutíveis como campos de pesquisa separados, relatividade e pesquisa quântica.  Poderá surpreender a alguns que desde os anos oitenta, quando reinstalou-se uma controvérsia acerba devido ao novo campo do caos, foi  o indeterminismo quântico que voltou a ficar na berlinda.
          Aqui tangenciaremos essa transição recente em função do nosso exame da significação do "modelo científico". Ou seja, mais à luz da epistemologia do que propriamente "história da ciência".                                
           James Gleick (“Caos” , Rio de Janeiro, Campus, 1990, p. 32), lê Kuhn salientando muito mais o aspecto da marginalização profissional que acarreta a descoberta de "anomalias",  como incongruência de fatos recém-descobertos e teoria dominante: “Ao terem visões breves e incertas do funcionamento da natureza, os cientistas profissionais não são menos vulneráveis à angústia e à confusão quando se veem frente a frente com a incongruidade. E a incongruidade, quando modifica a maneira como o cientista vê, torna possíveis os avanços mais importantes. É o que diz Kuhn, e o que mostra a história do caos”.
            Na consolidação da nova “ciência do caos”, observou Gleick que professores mais velhos poderiam achar que se tratava “de uma crise da meia-idade”, ao verem-se apostando “numa linha de pesquisa que muitos colegas poderiam não compreender, ou da qual poderiam se ressentir. Mas também sentiam uma animação intelectual que vem das coisas realmente novas” (p. 33). Não obstante, a ciência do Caos consolidou-se pelos êxitos destes cientistas, como Gleick expõe em seu livro, salientando porém com ênfase o período em que ela era considerada inteiramente marginal.
             O próprio Kuhn, conforme Gleick, teria despertado hostilidade quando publicou sua tese, em 1962, posto que segundo ela, “as revoluções não ocorrem aos poucos. Uma explicação da natureza substitui outra”, e, assim, “não foi por acaso que ele [Kuhn] fez os cientistas se parecerem a racionalistas nada perfeitos”. (p. 35),
            Quanto ao significado de ciência do “caos”, trata-se de um conjunto de soluções físico/ matemáticas que se estabilizou desde os anos oitenta, as quais permitem tratar cientificamente fenômenos aleatórios. Como a encosta cheia de irregularidades de uma praia, o escoamento irregular de pingos da torneira d'água, as variações cotidianas do preço de um produto como o tomate, as variações do fluxo de trânsito entre a madrugada e o "rush", o aquecimento de um elemento químico induzindo à turbulência, por exemplo.          

             Mas Gleick e alguns dos cientistas que se orientaram nesse campo, provocando a princípio grande hostilidade dos demais, defende uma filosofia expressamente platônica de essências ideais ocultas por trás da aparente complexidade, e uma teoria aristotélica da causa, (ver especialmente capítulo 7, sobre a pesquisa de Libchaber). Não são de forma alguma adeptos da “incerteza” quântica, e, ao que parece, não manifestam simpatia pelos que são. Por outro lado, Lyotard em O pós-moderno tratou o caos como um novo paradigma da incerteza.
          Ficando com a minuciosa investigação de Gleick ao invés da menção ligeira ao assunto, de Lyotard,  vemos que nem toda hostilidade em ciência é voltada apenas contra uma teoria por ser nova em face de uma anterior. O platonismo da ciência do caos implica certamente um novo momento na recusa da “incerteza” quântica. Quando já não se pode entretanto lidar com esta na base de não ser científica, tenta-se reduzi-la a uma interpretação insatisfatória dos fatos, pois alguma ordem implicada estaria sempre subjacente.

           É certo que se poderia objetar que a “ciência do caos” menos se pronunciou por um lado ou outro da polêmica entre determinismo e indeterminismo, do que  almejou ultrapassar o dilema por uma coordenação de ambos, sutilmente deslocando o termo “incerteza” pelo de “acaso”.
            Como David Ruelle (“Acaso e caos”, São Paulo, Unesp, 1993) observou, um “novo paradigma” foi afirmado em torno das pesquisas sobre a turbulência e a intuição de sistemas dependentes das condições iniciais. A designação de “caos” deveu-se a Jim Yorke. As pesquisas são inegavelmente um produto da ciência estadunidense, e Ruelle assim estabeleceu: “O que agora chamamos de caos é uma evolução temporal com dependência hipersensível das condições iniciais. O movimento sobre um atrator estranho é, portanto, caótico. Fala-se também de ruído determinista quando se observam oscilações irregulares de aparência aleatória, mas que são produzidos por um ruído determinista. Nos fenômenos caóticos, a ordem determinista cria, portanto, a desordem do acaso”.
         Porém assim essa desordem não é o correlato da ciência, este é sim a ordem que a cria. A desordem não é o fato real, e sim o efeito dele, ainda que já não se possa negar que existe. Uma forma de se expressar bastante ambígua pode ter emergido, a meu ver, mas não precisamente simpática a erigir a “incerteza”, ela mesma, em princípio da “ciência”.
             Como Ruelle, um dos cientistas do caos estudados por Gleick, neste seu próprio livro motejou, enquanto uma moeda está no ar há incerteza sobre qual face mostrará ao cair. Porém, por um lado, essa incerteza estaria reduzida pelo cálculo das probabilidades, e por outro lado, dizer que a probabilidade do lado cara é de 0,5% “parece razoável, pelo menos antes de jogar a moeda, mas é evidentemente falso uma vez que ela tenha caído, já que qualquer incerteza então se dissipou”.

           Mas se é claro que a incerteza não se dissipa quanto ao lançamento, ou mesmo o nível quântico não parece a princípio implicado no raciocínio. Ruelle ainda assim, argumenta: “Portanto, o lado em que cairá a moeda é determinado no momento da criação do Universo! Devemos abandonar as probabilidades? Ou devemos apelar para a mecânica quântica para podermos falar a respeito? A meu ver, isso é colocar o carro na frente dos bois. Não é assim que se faz física.”   Ao ver de Ruelle , “definamos os conceitos matemáticos e o quadro operacional das probabilidades”, porém “sem falar de mecânica clássica ou quântica”. Só então “poderemos discutir sobre suas relações com o determinismo, com a mecânica quântica, etc.”.
           O que não me parece muito distante das tentativas de Einstein refutar a física quântica, uma delas tendo sido que, simplesmente, não haveria necessidade de localizar as partículas. Mas na atualidade, já tendo havido a renormalização quântica, que permitiu o acordo de cavalheiros, e pela qual a chave da incerteza era apenas a probabilidade - já que nós nos expressamos de um modo comum,  como se estivéssemos referenciando coisas, quando na verdade o que está sendo referenciado são métodos matemáticos. Ora, como vemos, é a probabilidade que está sendo reinterpretada em termos estritamente deterministas.           
           Assim como em Gleick, a defesa de Einstein foi de princípios racionais puros, universais, como a única garantia possível de um conhecimento ser “científico” - o que já agora nem  se separa do filosófico, depurando a filosofia de toda a sua controvérsia interna, reduzindo-a à metafísica das relações lógicas puras. Na verdade, Einstein tem obra de epistemólogo, ao transpor para o formalismo matemático a essência da cientificidade, ao contrário do método experimental, que seria para ele apenas o apoio, a ligação com o factual – algo que entretanto reforçaria o argumento de Popper, que muito se inspirou em Einstein.     

           Para muitos pode parecer surpreendente saber que a teoria atômica da matéria, só em princípios do século XX realmente consolidada como científica, não era cara aos empiristas. Como nessa época não era cara à Mach, que Einstein motejava devido à iminente preponderância do atomismo. Inversamente ao  antigo, o atomismo moderno é um arcabouço matemático. É irônico que a mecânica quântica, que rechaçou o abstracionismo puro de Einstein, seja um arcabouço matemático, do mesmo modo. 
           Para Gleick, o estudo dos fluxos, como da turbulência que neles se introduz, hostilizado como de algo não científico, se transformou na demonstração da universalidade da forma. Não há variação imponderável, mas um invariável comportamento formalizável da própria turbulência: a duplicação da trajetória no interior do fluxo, depois a formação de nós em cada trajetória, e afinal a redução à unidade do comportamento já de fluxo ( turbulência).
          Gleick mostra assim, tanto o misticismo judeu de Libchaber, quando o misticismo goetheano de D'arcy Thompson, um biólogo, salientando a unidade da forma imanente ao que parece múltiplo na natureza. O próprio fato de que as folhas não tem muitas formas, e “a forma que existe não é ditada pela função”, de modo que uma unidade geométrica ideal deve ser suposta, e em termos de causa dos fenômenos, assim como em Platão e Aristóteles.
              Gleick conecta essa epistemologia à poesia de Wallace Stevens: “A poesia de Stevens transmite, com frequência, uma visão de tumultos na atmosfera e na água. Também transmite uma fé nas formas invisíveis que a ordem toma na natureza, uma crença de que


   'na atmosfera sem sombras
   jaz despercebido o conhecimento das coisas' ” ( p. 192)


           Porém como vimos, a interpretação dos fatos e leis é mais importante nesse nível do que eles mesmos. A “incerteza” quântica não foi realmente contornada na acepção de se terem alterado a especificidade da pesquisa, que eu saiba - pois em demais referência atuais a cisão da física em relatividade e princípios quânticos continua a ser afirmada, não obstante as tentativas de fusão. As teorias coexistem, não refutaram uma à outra.
        É importante notar como aqui ocorreu um paroxismo na afirmação do que designamos a fable convenue da unidade da "teoria ocidental" desde a Grécia. O fluxo e o caos não foram primeiro pensados no platonismo, mas na relativização sofística que Platão quis refutar com a ideia de ordem universal. Ele se opunha à concepção de fluxo, o mesmo que a realidade da matéria, com todas as suas forças.    

        Em Platão e Aristóteles “fluxo” e “forma” são a antítese perfeita um do outro, assim como respetivamente matéria/mudança e ideia/eternidade. E foram estes metafísicos que consolidaram a tradição ocidental de uma ciência exclusiva da forma, que não poderia existir se fosse demonstrado que na verdade só existem fluxos, ou seja, matéria em mutação.     
          Inversamente, para Gleick, pronunciando-se a propósito do pensamento de Libchaber, a propósito de sua descoberta: “O fluxo era uma ideia platônica, supondo que a mudança nos sistemas refletiria alguma realidade independente do instante específico. Libchaber adotava o sentido platônico de que as formas ocultas enchem o universo: 'mas enchem, realmente!” (p. 191)

              Ou seja, o que a ciência do caos fez foi lidar com o fluxo, mas para mostrar que há uma ordem invariável constante até mesmo nele. Para muitos cientistas ou filósofos, isso equivale não a valorizar o fluxo, mas a negar que exista caos além da forma. É uma questão de interpretação se trata-se assim de um novo modo de pensar que estabeleceu uma nova terminologia, ou, pelo contrário, de um recurso para evitar uma revolução não tanto científica quanto da própria noção de objetividade. É interessante notar que nesse segundo modo de ver, a necessidade nem é tanto garantir a unidade da episteme ocidental ab origine - já que o fluxo e a mudança foram pensados por sofistas e outras escolas na Grécia antiga. Mas sim a unidade de uma certa trajetória,  contínua - de modo que o feudalismo não ficasse como que de fora e anômalo.            
      

      VI)

           Precisamente o sublinhado em Einstein é que a mecânica quântica não seria científica porque é indeterminista. Ou seja, nela realmente há algo além da forma, assim como há algo não causalmente motivado. A relatividade de Einstein é rigorosamente determinista, do mesmo modo que toda a física possível. Conforme  também Ruelle afirmou como sua  convicção própria de modo peremptório, pois objetivando o descrédito da opinião contrária como se destoasse da razão comum a todo físico.  
        Vimos que Einstein estava cônscio de que nessa questão excedia a ciência no horizonte de uma problemática epistemológica - “teórica” nesse sentido. Mas o próprio Einstein nega assim que operou alguma “revolução científica”. A seu ver, ciência é sempre a mesma aplicação do princípio de razão suficiente. Ele entende que a sua própria refutação da física newtoniana é apenas corolário de um maior conhecimento dos fatos em função de instrumentos conceituais mais complexos, não a refutação das premissas de Newton, a lei causal e a lei diferencial.

             Einstein especifica exemplarmente a situação, do seguinte modo. Ele aceita que a "revolução" do conhecimento após Plank, Maxwell, Faraday e Lorentz, ainda não havia triunfado completamente, uma vez que entre os dois modelos, o newtoniano que representa "o real físico" como "um conjunto de pontos materiais", e o que se apresenta agora em termos do real "representado por campos contínuos", o que se segue são "concessões entre as duas teorias". O que ele considera verdadeiro também para a Relatividade, que "baseia-se inteiramente nas reflexões introduzidas pela teoria do campo e, até hoje, não pôde evitar o emprego dos pontos materiais e das equações diferenciais totais".
             Contudo, ele supõe que alguém que quisesse questionar as premissas científicas subjacentes tanto à física de Newton quanto à nova, especialmente a premissa da causalidade, seria irracional - "quem seria bastante louco para decidir de modo definitivo a solução do problema...? - “louco”, de modo a afirmar, diante das dificuldades, francamente o indeterminismo.
           Ora, os físicos envolvidos com o problema da “incerteza”, à exemplo de Werner Heisenberg, não supunham que o que produziram, não obstante tais dificuldades, fosse menos "teoria científica”. Apenas era preciso rever as bases da racionalidade, se elas provavam ser insuficientes para a apreensão do Real. E restrito esse termo para o objeto da teoria específica de que não mais se autorizam extrapolações filosóficas, acerca do que não se restringe ao objeto da ciência.
           Ou, como na polêmica de Niels Bohr com Einstein, afirmando este que "o real existe", chega aquele a sustentar que "todo juízo de existência é abusivo" - conforme relata Fritjof Capra em entrevista a Pessis- Pasternak (“do Caos à Inteligência Artificial”, São Paulo, Unesp, 1993), onde ele atribui a posição de Einstein a um apego ao modo de pensar de Descartes. Mas como vemos, sendo mais o caso de Leibniz.
          Na verdade, não foi a mecânica quântica que introduziu pioneiramente os motivos de uma revolução epistemológica que rompe consideravelmente com as premissas do racionalismo cartesiano, ou mesmo com as categorias a priori do formalismo objetivo kantiano.
        Segundo Bréhier (História da filosofia),   Cournot, ao longo do século XIX, pensa a história apenas como uma progressão de graus de conhecimento científico. Isto é, graus relativamente descentrados uns por relação aos outros, já que essa progressão mede o aprofundamento dos níveis, mas também a síntese deles num conhecimentos sempre mais amplo. Ora, o kantismo não podia lidar com esse relativismo do saber. Para ele, todos os conhecimentos estão numa mesma escala de receptividade sensível e conceitual.

           Cournot também contesta a subjetivação do tempo e do espaço kantianos. Estes são, como na lei de Newton, existentes na exterioridade do espírito humano, assim como as relações geométricas. Que houve a revolução de Copérnico é um linguajar aceitável. Mas uma revolução copernicana na filosofia como Kant disse que ele mesmo havia feito colocando o ser racional gerando os fenômenos e não o contrário, isso parece a Cournot bastante contestável.
         As categorias de Kant serviam indistintamente à captação do real. Cournot pensa que as categorias precisam ser desniveladas conforme sua pertença a uma ideia fundamental, regional, isto é, relativa à realidade de um campo do saber, e, portanto, num certo nível de sua apreensão.

        A ideia fundamental de substância, por exemplo, só libera categorias adequadas à experiência em nível de fenômenos cotidianos ou fenômenos de ponderabilidade em química. Não conserva qualquer utilidade na interpretação dos fenômenos imponderáveis, como a luz – isso no tempo de Cournot, onde se poderia desprezar uma teoria como a dos fluidos.
             Em qualquer caso, esse método de relativização das categorias por níveis de apreensão fenomênica é fecundo e permite a Cournot demarcar epistemologicamente os limites entre a matemática e a mecânica, a cosmologia e a física, o físico e o biológico, este  e o social. Piaget considerou Cournot um dos seus predecessores.
          Já Boutroux, pensador contemporâneo de Bergson, vemos afirmar  a exterioridade descontínua, por que suas relações inteligíveis tem como referencial a si mesmas na sua contingência factual. A cada região de estudos no sentido do abstrato ao concreto, a cada "grau" de ser, da matemática à geologia e a biologia, por exemplo, a contingência vai em aumento, inversamente à necessidade. 
           Conforme Bréhier, a rigor, Boutroux observa que nem se poderia nesse domínio falar de "coisas", e sim de sistemas finitos de elementos mecânicos, assim como aquilo de que se enuncia o princípio da conservação da força, de que cuidou especificar os elementos irredutíveis à lógica do comum intelecto: o princípio da conservação não nos fornece qualquer conhecimento de essência metafísica superior à experiência. Ele supõe a constatação de uma igualdade absoluta entre dois estados sucessivos, o que é pela pura lógica, impossível. Supõe também uma permanência na mudança, ou seja, uma mudança que não explica. Mas observações desse gênero podem ser obtidas em todos os "graus do ser", ou seja, em todas as regiões autonomizadas do saber na modernidade.
             Assim, da relação problematizada do intelecto com um tempo que ele não pode apreender diretamente pela sua concepção de contiguidade ou simultaneidade, já envolvido na evolução, temos esse problema de um intelecto que não pode deixar de se pôr numa exterioridade, que não pode deixar de nela atuar "racionalmente". Sendo dotada a sua ação de um sentido evidente para ele mesmo, e que no entanto não sabe dessa exterioridade o fundo, não detém dela o nexo real desde que tenha que transpor a linha fina que separa a ação empírica do conhecimento científico - e sabe que não sabe.
            Mais ainda, sabe que aquele saber não lhe forneceria nada de esclarecedor quanto ao sentido dessa sua margem de ação - consigo mesmo, com os outros, com a história, com a sociedade, ao mesmo tempo em que ele o afeta por ser também uma produção social.
            Creio que as habituais críticas que se dirigem ao movimento em filosofia designado “espiritualismo”, algo que começou com o movimento romântico e se perpetua até hoje, com uma gama tão ampla de propostas como se pode apreciar por isso que o “espírito” tanto pode ser consciência pura ao modo de Bergson, como Sujeito, o Eu que se auto-apreende como sujetividade na história, como em Maine de Biran, são bem injustas. Geralmente o ligam ao reacionarismo político da restauração, mas deveríamos lembrar que mesmo nas produções menos conserváveis, à exemplo de Cousin, a posição política era centro-liberal.

            Hoje Bergson é pouco favorecido na neurobiologia, por seu imaterialismo, mas algo valorizado por vezes na física, por seu conceito de “duração” - restaurando um sentido da linearidade temporal que Einstein rompeu. Não creio que ele devesse ser considerado o principal, como o destacável, do movimento.
               A meu ver, Maine de Biran deveria hoje ser relido à luz do nosso interesse pela revolução epistemológica do sujeito pensável, não obstante sabermos que, ao que parece, o Romantismo o supunha originário à mente, e desde o século XX, quando o recalque “positivista” anti-romântico foi removido e uma psicologia do sujeito retornou para ficar na forma da pesquisa clínica e da observação laboratorial, é consenso que se forma ao longo do processo de desenvolvimento infantil. Não sabemos tanto sobre o romanticismo como um movimento de ideias que abrange uma concepção pioneira de “inconsciente”, quanto se alardeia.


      VII)


         A mecânica quântica, repôs a problematização do saber, que vimos ter se tornado aguda na segunda metade do século XIX,  em seus próprios termos. “Physics and Beyond: Encounters and conversations”, de Heisenberg, traduzido no Brasil como “A parte e o todo” (Rio de Janeiro, contraponto, 1996) ilustra o percurso da mecânica quântica, desde o quadro inicial de polêmica e descrédito, até a consolidação das descobertas no domínio subatômico em termos de uma “Teoria” irrecusável do ponto de vista da cientificidade. Não se segue a “incerteza” como estado provisório do saber, ao contrário do que se pensava na época, e até mesmo do que alguns continuam afirmando hoje em dia. Mas sim como componente intrínseco da “teoria” quântica.
         Posteriormente ao momento inicial da construção da física quântica, devemos mencionar a intenção de Fritjoff Capra, como tendo sido contornar o aspecto de ruptura total do novo, reintegrando a “incerteza” quântica naquilo que seria o modo de pensar oriental antigo, entre taoísmo e zen budismo.       
            Porém, uma vez que obviamente não havia nestes referenciais antigo-orientais qualquer relação com teoria e método científicos, a meu ver não há na perspectiva de Capra uma decisão real sobre sua proposta. Se é de que a física cientificizou na modernidade ocidental o que era antes apenas misticismo, transpondo-se de modo arbitrário a irredutibilidade histórico-cultural; ou se, inversamente, a mecânica quântica não é ciência criticável como o limite einsteiniano de uma razão cega, “ocidental”, e sim iluminação mística.
        Não ignoramos que Niels Bohr, que como Heisemberg se considerava cientista, muito admirava o pensamento oriental, e sua “complementaridade” - como coexistência de pontos de vistas que continuam sendo inconciliáveis – ele considerou bastante homóloga ao simbolismo chinês do yin e yang. Mas a questão da epistemologia, como uma problematização da ciência - que teria por exemplo que responder pela continuidade ou ruptura em seus métodos, sistemática, instrumentos, na decorrência da mutação dos conteúdos  -  não se esclarece assim.

           Podemos ilustrar o quão importante é esse questionamento, por um paralelo com a noção de corte epistemológico que Bachelard criou para demarcar a transformação da alquimia à ciência (química) ou objetividade. Estaríamos agora num novo corte - ulterior até mesmo ao que ele situou na decorrência do que designou objeto sem noumeno, o elemento químico não-natural, produzido exclusivamente em laboratório?
         Heisemberg a desenvolveu em “A parte e o todo”, sua já citada autobiografia. A seu ver, a mecânica quântica apenas demonstrou que a racionalidade consiste na interligação desses dois aspectos. Se o comportamento da parte é desconcertante, integrando-a no comportamento do todo se torna compreensível. O todo não sendo Deus ou o cosmos, mas sim conceituado como o observável em termos do fato simples que se pode enunciar como o ambiente que envolve todos os fenômenos múltiplos e inter-relacionados nele e por ele. Ou seja, objeto especificamente físico, não filosófico, o que também Pauli especificou expressamente.

       É importante a posição de Heisemberg como algo mais do que apenas um modo de tornar estável cientificamente a incerteza. Houve um verdadeiro modelo da totalidade convergindo com a mecânica quântica na metade inicial do século XX, abrangendo as próprias ciências humanas como metodologia do funcionalismo.

      
   VIII)

             Podemos constatar o quanto a postulação de um modelo do todo em Heisemberg tornou-se   coerente com a epistemologia “funcionalista” em voga nos decênios iniciais do século XX, por um cotejo  Paul Guilhaume (“Psicologia da forma”, São Paulo, editora nacional, 1966). Conhecida como escola de psicologia "gestaltista", tem por princípio básico que nós só vemos a parte de qualquer percepção como parte de um todo.
              Guillaume, cujo livro é de 1924, irá definir uma Forma (Gestalt) por contraposição ao que designa um "grupamento aditivo". A forma (Gestalt), “é outra coisa ou algo mais que a soma das partes” (p. 8), não resulta como uma somação dos elementos que existiriam antes dela.   
               A forma é o que faz com que posteriormente à sua percepção, possamos identificar o que se apresentam como sendo os seus elementos, numa reversão completa da psicologia assim designada "associacionista". Nesta se afirmava que formamos ideias a partir de dados percebidos, os quais associamos a imagens que então se tornam conceitos. 

           É importante notar que "associacionismo" como escola psicológica é estritamente como definimos, pois "associação de ideias", como simples evocação de uma ideia a partir de outra,  é algo bem irredutível. A "associação"  (de ideias)  tem sido instrumento útil à pesquisa desde que introduzida como método terapêutico psicanalítico. O que ocorreu justamente quando o "associacionismo" se tornou refutado por experiências laboratoriais que infirmaram a hipótese de que formamos imagens mentais determinadas a partir de certos dados dos sentidos.              Inversamente ao "associacionismo" de Wundt, na Gestalt não é o produto de associações de partes aquilo que os sentidos discernem:a análise é uma transformação real do estado de consciência”, (p. 10) lembrando que analisar é decompor as partes de um todo. Segundo a teoria da forma, ao invés da análise, “os fatos psíquicos são formas”, isto é, são “unidades orgânicas” que se tornam limitadas num “campo espacial e temporal de percepção e representação” (p. 12). Ao analisar operamos uma possibilidade não originária, não natural, mas algo derivado do que é a natureza ou fato perceptivo, isto é, psíquico.
              A percepção se torna a essência de qualquer ato mental. Não somente a captação de dados, mas o próprio pensamento - que é solução de problemas, assim é  percepção do todo dos elementos na ordem em que o problema se torna resolúvel. O estudo de Kohler com macacos permitiu interpretação ampla de apoio ``a teoria.  
             O problema essencial da “Gestaltheorie” será estabelecer as leis das transformações perceptivas e condições de percepção em que se engendram as formas. E uma forma, inversamente a uma soma de diversos elementos, é uma função de diversas variáveis.

             É algo, portanto, bastante contrário ao empirismo, que havia consagrado o associacionismo, mas também as formas posteriores de psicologia empirista, como o behaviorismo. 
          Quanto à refutação da psicologia oitoscentista de Wundt na emergência da psicologia de laboratório, em inícios do século XX, o pivô foi ter-se feito a observação de vários sujeitos, contrariamente à introspecção que limitava até aí a pesquisa. Comprovou-se que muitos sujeitos não formam imagem alguma entre a percepção e a ideação. Posteriormente ao impacto inicial da refutação – pois as experiências haviam começado por pessoas que desejavam, inversamente, corroborar as premissas – concedeu-se mais importância ao fato de que alguns, no entanto, formam imagens. Em todo caso, o associacionismo  como um produto da psicologia introspeccionista não pôde ser restaurado como premissa universal.
        Além disso, a rigorosa dependência "empirista" da percepção aos dados concretos foi refutada também. O que hoje é tão conhecido como o fato de que ao projetar imagens descontínuas numa tela, o olho as perceberá em contínuo movimento se a velocidade for compatível com esse efeito, na época foi uma novidade da observação em laboratório e provocou uma ruptura considerável.      
          A história do behaviorismo, uma psicologia exclusiva do comportamento empiricamente observável, psicologia que elide a mente, relegando a consciência à pesquisa biológica do cérebro, se torna porém interceptada pelo predomínio do funcionalismo. Assim, tentativas posteriores de integrar ao comportamento algo psíquico, interno à totalidade do organismo, foram sempre mais constatáveis desde K. Lewin (“Princípios de psicologia topológica”, São Paulo, Cultrix, 1973, copyright Macgraw-Hill, 1936). Matematizando a psicologia pela topologia, Lewin introduziu o conceito de “espaço hodológico”, a projeção da totalidade do meio circundante em que o comportamento pessoal se possibilita psiquicamente.

              Seria importante notar que Guillaume registra o aporte que os gestaltistas mantém do  conceito de forma, pelo que seu alcance não se limita ao psicológico, identificando-se a figuras, melodias e relações lógicas. Mas se inspira principalmente na física, onde somente um número muito reduzido de fatos pode se conformar ao paradigma dos “conjuntos aditivos”, o que não ocorre desde que se implemente a pesquisa no campo da eletricidade. Aqui a estrutura das cargas das partículas e do campo onde se estruturam conjuntamente induz necessariamente à concepção de Forma como totalidade que subssume as partes. A tradução de Gestalt pode assim ser tanto Forma quanto Estrutura ou Campo, sempre na acepção de totalidade.
            Na ambiência da física quântica, a estabilidade da matéria depende das relações quantificáveis entre os estados estacionários dos elétrons sem implicar que uns são causas dos outros. A descontinuidade que se verifica no âmbito da parte se torna "compreensível" pela inter-relação constituída pela coerção do todo sobre as partes. A estabilidade da matéria não pode ser explicada pela natureza de cada parte elementar cuja somação seria causa do que se iria designar como a abstração do Todo. Niels Bohr reporta pensar, inversamente, em termos de Formas, definidas como Totalidades - ele utiliza aqui o mesmo termo que Guillaume, Ganzheit. Lewin registra, com efeito, que o conceito de “campo” transitou para um “uso em psicologia”, conforme os gestaltistas Koffka e Koehler o traduziram (op.cit., p. 28)        
          Bohr, reportado por Heisemberg na autobiografia, relata que as formas ou totalidades se colocaram a ele como os meios mesmos de expressão do problema da estabilidade da matéria. Ele não o teria formulado raciocinando na base do átomo como um sistema planetário de proporções extremamente reduzidas.
         Assim, por "estabilidade", seu conceito básico, ele compreendeu o fato das mesmas substâncias terem sempre as mesmas propriedades. Um átomo de ferro, como um organismo vivo, são totalidades pois apresentam essa mesma característica de se repor, ainda que perturbadas por fatores extrínsecos, na sua configuração comum.

          Essa Ganzheit, como Bohr define numa ocasião ulterior de convívio com Heisemberg, e assim como este registra, não poderia se colocar como um "sistema composto por uma multiplicidade de tijolos atômicos" A totalidade aqui se designa como "estrutura global" , podendo-se comparar as que se observam na física atômica (átomos, moléculas, cristais) com aquelas que se veem na biologia (os organismos), isto é, como Formas.
         Heisemberg elevou esse princípio do todo a algo intrínseco à própria natureza, crendo que isso era seguramente exequível pela mecânica quântica, e esclarecer as leis da natureza seria a essência da cientificidade. Não é de se estranhar que Heisemberg tenha contribuído posteriormente para o que se designou a “renormalização quântica”, métodos que visam tornar menos importante o comportamento individual da partícula. Mas não são métodos que anulem o fato suposto real da incerteza que cerca este comportamento individual. Ou seja, independente do ponto de vista do todo, da mecânica quântica segue-se que há algo indeterminado na natureza, o que é negado pela Relatividade e pela Ciência do Caos.
         Changeaux e Connes (“Matéria e pensamento”, São Paulo, Edusp, 1996) observaram que a renormalização quântica, por ter “gritante a analogia” (p. 181) com o funcionalismo, convém a uma concepção como de Johnson-Laird, da psicologia como construto independente do referencial ser o cérebro humano ou computadores. Na verdade como vimos  mais do que analogia, trata-se de uma mesma epistemologia. A Gestalt interpretava as “Formas” independentes do reino onde estas se constituem, psicológico, biológico ou físico.
            Para muitos, como Robert Gorman (“A visão dual”, Rio de Janeiro, Zahar, 1979), é irritante que o fermento filosófico severamente anti-cientificista, como o existencialismo de Heidegger, que na época coincide com a crítica da perspectiva empírica “objetivista” da parte, porque esta abstrairia o componente cultural, humano, do valor, tivesse desembocado numa psicologia de computadores, desumana, como a atual “analogia computacional”. Porém isso não me parece tão inexplicável ou artificial. O cientificismo que Heidegger e os adeptos do todo criticavam era apenas o positivismo oitoscentista, que considerava a ciência o único meio de sentido, o homem o produto do meio e da técnica, cultivando um mecanicismo bem expresso na pesquisa do cérebro à Helmholtz, apenas visando o comportamento das partes. Um modelo da perspectiva central só começou a ser elaborado como transição ao funcionalismo.

         Uma ciência que se conformasse à filosofia da forma se tornaria desejável, não criticada, como já prognosticava Husserl, o pai de toda essa corrente existencial ou hermenêutica,  na sua forma embrionária como “fenomenologia”. Ou seja, um novo racionalismo radicalmente inatista.
        O irônico é que assim, ao invés do heideggeriano ser-aí “humano”, que dota culturalmente de sentido, temos uma existencialidade, um sentido, independente do referencial de origem, a pessoa. Mesmo essa consequência não é de todo espantosa, se lembrarmos, por exemplo, como o existencialismo derivou para uma crítica de um certo humanismo que fosse apenas a prerrogativa do homem como indivíduo.

               O básico funcionalista, sua contradição real como notou Gorman,  é a existência humana como formalizante, não o indivíduo humano que pode inclusive ignorá-la por ser “objetivista”. Para o funcionalismo existencial, por estar enganado quanto ao que realmente ocorre, e o mais comum é estar, já que as coisas parecem fora e independentes de nós, quando na verdade elas são como são porque nós atribuímos o seu valor.
              Gorman está certo, a meu ver, ao notar que isso é intrinsecamente contraditório, já que a descoberta existencial do valor cultural seria ao mesmo tempo libertação pessoal. Entre sujeito e sociedade, contudo, algo precisa ser escolhido como foco.  Porém permanece Gorman tencionando aperfeiçoar o funcionalismo existencial, o que destoa do caminho daqueles que preferiram a ruptura. Ou o empirismo renovado após as refutações de premissas iniciais, ou o "estruturalismo" como retorno da prerrogativa dos elementos, porém articulados entre si pela regra associativa. 
           Na verdade, Changeaux e Connes são exemplos mais recentes desta ruptura que ocorreu na altura de meios de século, na forma do que se designou “estruturalismo”. Eles criticam o funcionalismo como uma teoria hoje inadequada.
           

        IX)       

             Na subsequência dos fatos históricos  precisamente a questão da relação parte/todo veio a ser o mais importante na consolidação de um novo conceito de “teoria”. Aquele que estamos interessados em apreender, estabelecendo nesse ponto a interligação dos usos do termo “teoria”: o filosófico, antigo e moderno, o de “teorias” científicas, e este que tencionamos conceituar. 
           Detendo-nos algo mais nessa problemática interior às “teorias” científicas, vemos que o próprio David Ruelle alargou a fragmentação da física, desde o que pareceria apenas a bifurcação entre duas teorias principais, quântica e relativista. Em “Acaso e Caos”, afirmou que “ao colar uma teoria matemática a um pedaço da realidade, obtemos uma teoria física”, porém “geralmente, até para explicar um dado fenômeno dispomos de várias teorias diferentes”, e a diferença entre elas “dá lugar, no melhor dos casos, a aproximações (em geral não controladas), no pior dos casos, a sérios quebra-cabeças lógicos, quando os conceitos físicos de uma teoria não concordam com a da outra. De fato, saltar de uma teoria a outra é uma parte importante da arte do físico”. (op. cit. p. 21)

           Ruelle esclarece a expressão “pedaços da realidade” em termos de “classes de fenômenos” (p. 26). Já em James Gleick vemos a extensão desse conceito de que o físico trabalha com pedaços de realidade: “as simulações decompõem a realidade em pedaços, tantos quanto possível, mas sempre menos que o necessário”.
           Eis porque Libchaber preferia construtos como a sua pequena pilha, reais, ao contrário de simulação computadorizada. Enquanto David Ruelle, naquilo que era evidentemente uma pugna de físicos contra matemáticos, motejava que em poucas décadas estes seriam substituídos pelos computadores – mas, obviamente, os físicos, não.
             A posição de Ruelle pode parecer com a de H. Simon, que em entrevista a Pasternack defendeu a concepção de que as máquinas poderão fazer o que o pensamento humano faz, por exemplo, literatura como a de Proust, dominando os processos de criação proustianos. O que a meu ver é despropósito – pois como avalia Simon a qualidade dessa literatura, independente das controvertidas questões históricas e estilísticas que ela coloca?

             Não há uma unidade possível da qualidade literária, posto que ela é relativa ao momento histórico, e momentos irredutíveis valorizam soluções literárias bem irredutíveis. O computador não se relaciona com a multiplicidade política em que evolve a história, assim mesmo que ele pudesse lidar com a imprevisibilidade, resolver problemas não previstos, não poderia ele mesmo ser o fator imprevisível que muda qualitativamente a história dos estilos conhecida até então. Aqui constatamos a função daquele uso do termo "teoria" que é irredutível a todos os que examinamos. A teoria da literatura, eis o que está ignorado por Simon. Ela não é apenas um modelo como uma ciência unificada, mas um jogo com a produção literária interposto pela transposição de metodologias já existentes para outros campos do saber.
              A questão para Ruelle, não obstante o quanto sua posição pareça semelhante à de Simon, é que ao contrário da sistemática dos números, a relação com os objetos reais não é puramente ideal, e por isso não é redutível ao potencial do computador: “Afinal, nosso cérebro foi moldado pela seleção natural, não tendo em vista as matemáticas, mas para nos ajudar na caça, na colheita, na guerra, nas relações sociais...”.
               A oposição do mental ao objetivo é conduzida a extremos. Ruelle cita Kolmogorov, cientista soviético que portanto esperaríamos justamente extremado empirista, mas na acepção que desse termo desde o século XIX, que considerava o desenvolvimento do talento matemático incompatível com o de capacidades diversas. Alguém que começasse a desenvolver o talento aos doze ou menos anos, teria estacionado sua idade mental nessa idade – assim ele atribuía ao importante Vinogradov a idade mental de oito anos.
               Isso é absolutamente impossível na teoria de Piaget, onde a evolução das mentalidades implica que as estruturas subjacentes à capacidade de exercício da matemática só existem com o amadurecimento psíquico, entre os doze e os quinze anos. Ou seja, também quando nos tornamos aptos a entender a reciprocidade dos comportamentos socializados não-despóticos. Se o que se verifica de um sujeito não se coaduna com essa previsão, resultado da testagem com centenas de crianças em vários países do mundo, então se o explica como um “recalque cognitivo”.

          Ora, para Piaget, há sociedades inteiras em que um recalque é o caso. A deplorável situação do pensamento sob censura na União Soviética pode ter sido um caso assim. Não obstante produzir ciência, o fez de modo tal que a teoria genética errada, por manter-se “dialética”, de Lysenko, era dogma oficial do governo, e pelo que se sabe, Vavilov que formulou a teoria correta foi preso, não durando mais que dois anos na Sibéria. Enquanto na Europa e USA se desenvolvia uma explosão de criatividade na arte, na URSS o governo prendia quem não se adequasse aos acanhados limites do “realismo socialista”.
          Não ignoramos que a censura subsiste no Ocidente assim designado livre - que disso não tem lá muita coisa, uma vez que os comportamentos estão cerceados por redes midiáticas de imposição de costumes diferenciados por classe e status. Além disso, a pesquisa está sempre mais controlada pelo a priori do investimento empresarial e administração de ditaduras pelo terceiro mundo. Porém o caso da URSS é por demais divulgado como específico, tornando indiscutível a existência do problema histórico da ingerência do partido. Apenas a partir da década de cinquenta, com o pós-stalinismo, a Russia em particular e a URSS em geral puderam retomar a pesquisa genética em parâmetros de compatibilidade com a ciência estabelecida ocidental.             
           O  matemático A. Connes, junto ao neurocientista Changeaux, em Matéria e pensamento, assim como em entrevista a Pessis-Parsternack também o ciberneticista Von Forster, negam veementemente a possibilidade de reduzir a criação matemática pelo cérebro humano ao que podem fazer os computadores, que não atingem o nível da complexidade, ou, conforme Forster, nem mesmo produzem “memória” no sentido real (humano) do termo.

            Aqui é interessante notar que Connes e
Changeaux, em seu livro, mantem uma controvérsia entre dois pontos de vista epistemológicos, respectivamente defendidos: idealismo dos entes matemáticos como reais em si mesmos, e construtivismo pelo qual eles são apenas produções da linguagem humana. Porém o idealismo de Connes respeita a imanência independente dos fatos físicos, não reduz a realidade ao ideal, e o construtivismo de Changeaux liga-se à ambição de reduzir todo comportamento linguístico-cerebral a reflexos produzidos pelos comandos genéticos, portanto assim formalmente redutíveis.

           Independente dessa questão computacional, vimos que Ruelle se expressa sobre a pluralidade teórica naquele sentido que designei popperiano. Ao ver de Ruelle, mesmo que os físicos se expressem em termos de “correções quânticas” ou de “um limite não-relativista”, podendo ainda ser que “não dirão nada, porque o contexto indica o ponto de vista adotado”, tudo pode parecer “confuso e incoerente” devido à pluralidade teórica. Ainda assim, não há “físicas” e sim “física”, posto que mesmo que não sejam “logicamente coerentes”, as teorias físicas “devem sua unidade ao fato de descreverem uma única e mesma realidade”, (p. 21) isto é, “o mundo que nos cerca” (p. 19).
             Mas como se pode objetar, é em termos de visão de mundo que a "física" apresenta sérias desavenças internas. Ruelle salienta assim que “o estudo da física põe-nos diante do fato paradoxal de que temos menos controle sobre um objeto físico que podemos pegar com a mão do que sobre um objeto matemático”, que não tem existência concreta. A isso poderia ser contraposto Shakespeare, citado em Rumney e Maier: “ 'você pensa que eu posso ser manejado mais facilmente que uma flauta'?, pergunta Hamlet. Será mais fácil endireitar a humanidade do que uma chapa de ferro?”
             Nós hoje pensamos em matemáticos como seres não realmente infantis, e que podem oferecer instrumentos úteis na lide com problemas reais, à exemplo do cérebro humano, conforme Connes.
            Ruelle argumenta contudo que uma depuração total do paradoxo teórico, a fim de obter um fato livre de controvérsia, seria tão inexequível para começar a física do que esperar que a química comece só pela obtenção de substâncias inteiramente livres de impurezas, posto que ela só pode configurar leis e experiências com produtos razoavelmente livres de impurezas.



       X)      

            Pelo que vimos até aqui, o campo da física se encontra bifurcado entre epistemologias determinista e indeterminista que são, ao mesmo tempo, visões da própria objetividade universal. Para alguns essa bifurcação é negada devido à unidade determinista da física, na medida em que a física é objetiva. Para outros, como A. Molles (“A criação científica”, São Paulo, Perspectiva, 1988), inversamente, ela seria negada pelas razões históricas que introduziram o indeterminismo.
          Segundo Molles, o determinismo havia sido a alma de uma ciência condensada na fórmula de Laplace pela qual uma inteligência que conhecesse todas as forças da natureza seria o mesmo que um espírito apto a conhecer e prever qualquer evento, passado ou futuro. Na expressão de Molles: “A extraordinária clareza dessa fórmula de Laplace, que foi a causa de seu êxito, conduzia a ciência em seu conjunto a considerar-se, senão como esse ser 'assintótico' rumo ao qual deve evoluir o espírito humano, pelo menos como a prefiguração sempre imperfeita que melhor podia dar a ideia dele, e o reino dessa definição do determinismo durou até a recente crise da Física ocasionada pelos quanta e pelo princípio da incerteza”.

              Se o determinismo estava já destronado para Molles, se esforça ele por demonstrar que é refutável até do ponto de vista da lógica formal, “pois é preciso no mínimo um elemento, portanto um átomo, para representar a posição do átomo”, e assim o número de elementos exigidos pelo cálculo seria sempre superior ao número dos elementos explorados por ele. 
            Molles tem uma interessante concepção da ciência indeterminista atual, como não podendo ser inteiramente separada da “teoria” no sentido filosófico do termo. A parte inicial do livro desenvolve essa questão, assim como a evolução na história, entre filosofia e ciência.
             Contudo, do mesmo modo que os opositores deterministas, ele não parece interessado na pluralidade teórica que realmente integra a física como um todo, que faz dela algo que à parte seu “discurso” não tem uma unidade real, assim como alguma evolução da cultura “ocidental”. E se os novos acontecimentos, especialmente desde os anos oitenta, com Hawkings e Penrose, por exemplo, sinalizam para tentativas de unificação, os resultados não penetraram na forma de uma teoria amplamente conhecida, ou inequivocamente utilizada, como são a relatividade e a incerteza quântica. A interpretação do caos como uma conciliação, apenas subordina o acaso à necessidade, num jogo de fato determinista que a meu ver ressoa com a visão expressamente platônica de Jacques Monod.

               Nessa decorrência, nós vemos que a “teoria” contem um princípio autotélico - ela se mantem por sua coerência interna, ao invés de por adequação a algo exterior. O que faz com que mesmo a recusa da possibilidade de uma ruptura radical em nível de premissas da racionalidade e/ou objetividade, não possa contornar a irredutibilidade básica dos seus princípios a quaisquer outros.
          O que se enfatiza na fricção de Einstein entre a perspectiva de campos contínuos ou pontos materiais, assim como na observação de David Ruelle acerca dessa pluralidade.
           A autonomia da posição de princípio, o caráter autotélico da “teoria científica”, não significa os fatos assinaláveis do começo das práticas, mas opera como equacionamento, em nível mais abrangente, dos fatores problemáticos que nas práticas apenas se expressam – poderiam se expressar por outros meios, na acepção de outras práticas. Se Einstein houvesse sido brindado com maior talento para o esporte que era o seu hobby, não precisamos duvidar de que a Relatividade iria ser por outros meios descoberta.

         Isso não destitui de valor o gênio não discutível de Einstein. Mas o que observamos assim é que ao longo da “modernidade”, a “teoria” evolui como transformação da abrangência do que significa pensar – o que se propusera como questão desde que o hiato de Ruelle, entre a mente e o mundo objetivo, se tornou manifesto indeslocável, a partir das Grandes Navegações e do método experimental.
               O Romantismo foi o marco na transfiguração de toda a problemática humanística à luz dessa mudança. Até aí, o período classicista da filosofia, dita “moderna”, desde Descartes limita-se à exibição das várias tentativas de acomodar o novo ao disponível metafísico. O classicismo como uma espécie de latência de toda a modernidade não é uma tese nova, combinando com uma das interpretações a propósito do que está acontecendo agora. Porém desde a configuração romanticista a arte se tornou importante campo de produções que se podem visar nessa perspectiva do pensamento produtor, e uma forma específica de “teoria” da arte, que na verdade é uma contínua perquirição dos processos de pensamento nela envolvidos, emergiu.
           Esse é o uso do termo que começa a se aproximar daquele que vem sendo usado atualmente. Compreendemos que não se poderia tematizar essa emergência senão iluminando o entorno de mentalidade que a torna possível, um mundo cientificizado que é ao mesmo tempo o mundo dos problemas postos pela cientificização – ao invés da cientificidade ser o que explica, ao que se reduz esse mundo, é ela o que deve ser explicado. E o que o torna algo historicamente concreto, um mundo de conflitos, de costumes e leis em que eles se absorvem, de meios alternativos de solução tal que sua pluralidade mesma é parte do problema real.
         Ao longo do século XIX, o Romantismo foi recalcado pelo “Positivismo” que com a evolução darwinista erigiu o cientificismo total na base da estrita determinação objetiva do meio, com  abstração da mente em termos de autonomia criativa.
        O positivismo, ainda que enormemente influente em todo o mundo, foi uma doutrina bastante ingênua, apesar de seus protestos objetivistas, interpretando a ciência como a mente individual organizada por uma práxis tecnizada, e toda a realidade, até onde acessível ao homem, estritamente objetiva. Porém como vimos o século XX repôs o âmbito científico na base de uma legitimidade da problemática “teórica”. Assim nessa evolução o papel de Einstein é ambíguo. Por um lado, o matematicismo exige essa reposição, por outro lado, o determinismo a limita.
          Gleick ilustrou sua perspectiva kuhniana da revolução científica, em termos de súbito despertar para a importância de incongruências que os demais estão interessados em não ver, com uma pesquisa em psicologia. As pessoas revelaram não apreender a diferença em um baralho que os pesquisadores haviam alterado sutilmente, de modo a conter uma dama de copas preta. Ou então, mostravam-se confusas, até angustiadas perante algo que não sabiam explicar. Assim a resistência que a comunidade científica exibiu aos introdutores do modelo do caos, que em alguns casos tornou a profissão deles algo dramático, seria explicável. 

          Eu gostaria de ilustrar minha perspectiva “popperiana” das ciências como não sendo paradigmaticamente unificáveis, também com uma experiência em psicologia. Foi demonstrado em laboratório que diferentes pessoas tem percepções bastante irredutíveis quanto a aspectos do mesmo objeto mostrada ao mesmo tempo a todas elas. Um grupo que estava ocupado como alunos assistindo a uma aula, foi interrompido como que casualmente pela entrada de um personagem que aparentava não ter nada a ver com a situação, personagem que ficou alguns minutos à frente de todos. Após a breve exposição, foi indagado a cada pessoa em particular o que ela havia visto. As respostas não coincidiram quanto à cor e forma das roupas, dos cabelos, e do que o personagem fez na frente da turma.

      XI)

           O termo “análise” é certamente muito conhecido, e “interpretação” também. Contudo, nenhum deles tem qualquer sentido lato aproveitável no âmbito da “teoria” na pós-modernidade. O significado de “análise” foi construído no interior da “teoria" na acepção que recobre desde a teoria da literatura até a inclusão da psicanálise numa convergência com a filosofia, em termos de explicação do inconsciente. Uma vez que essa convergência se deve ao estruturalismo, “interpretação” era precisamente o que a “teoria” pretendera refutar como correlato válido de um fazer “teórico”.

           A “interpretação” vinha desde Heidegger e o existencialismo, constituindo a acepção moderna de “hermenêutica”, com um correlato cultural que pretendia justamente se opor à possibilidade de ser “decomposto” – o que é o sentido lato de “análise”. Esse correlato, sendo os textos da cultura, eram produtos do pensamento humano, e como vimos, o modelo que estava vigente na psicologia gestaltista e no funcionalismo pressupõe que o pensamento se exerce por totalidades.
             Para efeitos do exame das produções culturais, a obra é "interpretável" por ser uma totalidade, o que deveria ser haurido na “interpretação” era o sentido do todo. Porém esse não era um sentido universal, e sim ele mesmo expressão da totalidade da cultura/mentalidade em que se inscrevia.
                A língua seria um “sistema modelizante de mundo”, conforme expresso em Sapir-Worf, ela mesma uma totalidade de interpretação do mundo, diversa de qualquer outra língua, e, portanto, uma língua era ao mesmo tempo uma cultura em si mesma. Uma “historicidade” como em Heidegger, diversa das demais.
           Assim, vemos que o caráter autotélico das produções do pensamento foram pensadas antes da necessidade da ultrapassagem da linguística pela teoria da literatura em termos de referencial adequado à compreensão da linguagem imanente aos modos de operar com os textos-objetos das ciências. O que teria ocorrido para resultar na necessidade dessa transposição?
             O que vimos como o caráter autotélico do pensável foi primeiro, no funcionalismo,  tematizado desse modo: ao mesmo tempo totalizante e linguístico.
            Não era uma questão de ignorar o instrumento analítico, porém o sentido lato de “decomposição” das partes de um todo não implica a noção de uma junção de partes que resulta na coerção do todo. Assim a “análise” foi colocada como um instrumento derivado, sofisticado, devido a hábitos inculcados do pensamento domesticado pelas disciplinas científicas, ao invés da espontaneidade da percepção e produção expressiva do percebido. Na espontaneidade, todo correlato do pensável é uma totalidade resultante dessa coerção do todo sobre as partes. Repetindo, a necessidade primordial dessa coerção foi o que verificamos embasar as produções de “interpretação” (hermenêuticas).
          É assim que vemos como interpretação e análise, nesse sentido estrito, estão implicados historicamente, pois a “coerção” do todo não é negada quando o funcionalismo se tornou alvo de críticas por parte da nova corrente do “estruturalismo”, que emergiu a partir da metade do século XX.
             O “estruturalismo” não critica o paradigma totalizante “funcionalista” em nome de algum “elementarismo” simples ou ingênuo. Ele entende plenamente a coerção do todo, ou ao menos podemos afirmar que ele não desfaz a construção dela, recebida como tal do “funcionalismo”. Porém, conforme o “estruturalismo”, a coerção não é o que explica, mas o que precisa ser explicado.
               Realmente, quando Guillaume diz que para a “Gestaltheorie” os “fatos psíquicos” são “formas” definidas como “unidades orgânicas que se individualizam e se limitam no campo espacial e temporal de percepção ou de representação”, assume que para ela, então, o “problema essencial” será “estabelecer, pela experimentação, as condições dessas formas e as leis das suas transformações”. Mas não admite a possibilidade de se descobrir que as condições e leis não confirmariam a premissa definidora dos fatos psíquicos. Supõe, inversamente, que dissipou essa possibilidade ao tematizar a “psicologia analítica”, isto é, o associacionismo empirista, para demonstrar que se ela não evitou certos problemas, ainda que não os tenha resolvido, eram apenas falsos problemas, gerados pela perspectiva ilusória da independência da parte.
             Contudo, percebemos que subsistem problemas não falsos, ao examinar o modo como a coerção do todo é construída, na consideração gestaltista das imagens percebidas como arrumações dos elementos tal que induzem a serem recebidas cada imagem como uma forma em si mesma, e não como agregado de elementos.
              Creio que um exemplo tornaria menos fastidioso o exame dos detalhados esquemas de leis da percepção gestaltistas a partir do estudo da composição de imagens percebidas. Se tomarmos uma folha de papel e desenharmos dois pequenos segmentos de reta como que aleatoriamente, em qualquer região da folha, um percebedor o receberá como duas imagens de segmentos de reta. Mas se desenharmos os mesmos dois segmentos de reta unidos na folha, um ao lado do outro, bem próximos, especialmente se estiverem na parte central do papel, o percebedor verá uma só imagem, “um par” de segmentos de reta. Isto é, verá ambos inter-relacionados como uma figura, e seria surpreendente que alguém os considerasse independentes um do outro. Poderia ser até que na presença da figura anterior as pessoas dissessem que não havia “nada” no papel, na acepção de não haver uma figura reconhecível.
           Para o gestaltista, aí está toda a prova. Porém nós podemos notar que a “coerção” do todo tanto pode ser o fator que explica a mudança, que de fato não consta nos elementos enquanto apenas dois segmentos de reta, quanto pode a própria coerção da qual se segue a visão de “um par”, ser explicada pelos elementos enquanto o modo do seu agrupamento. Na verdade, é isso mesmo que a própria Gestaltheorie afirma. O problema é que ela confunde como uma só categoria, o que realmente apresenta-se como duas, ou seja, confunde a composição da imagem com a lei da percepção e a esta já subssume em natureza do fato psíquico.
          Aqui pareceu-me arriscável afirmar que temos um exemplo do que Molles designou “infralógica” da justaposição – sendo as infralógicas que listou, distintas da verdadeira lógica, contudo processos comuns na ciência em se fazendo, diversa de como se apresenta a ciência já feita.
           Nesta infralógica como visei a proposição gestaltista, não se rompe a continuidade da cadeia conceitual, como se faz inversamente na composição de um mito (a – b – c /.../ f – g /.../, etc) . Porém, se todas as malhas da cadeia estão presentes à consciência (a – b – c – d – e – etc.), se toda etapa tem um antecedente e um consequente, em compensação elas são heteróclitas. Não tem necessariamente homogeneidade de natureza, qualquer regra da progressão. Há na verdade apenas uma justaposição, só aparentemente há uma sequência real dos elementos tomados entre si.
           Parece claro que ver o modo do agrupamento como parte do plano dos elementos, ou como parte do plano da imagem resultante, a Forma de “um par”, é uma questão de interpretação, mas é nitidamente menos forçado ver como parte do plano dos elementos.
           Uma vez que seja assim, a “coerção” como lei estrutural não é o que explica, é o que está sendo explicado pela “articulação” ou composição das partes. O importante é que as próprias partes não pre-existem. Nós não veríamos um par se não víssemos antes os traços como componentes de algo reunido numa folha de papel, superfície habitual do signo. Porém em si eles são apenas rabiscos.
           A “articulação” é o conceito “estruturalista” que transpõe a tarefa da “interpretação” para o da “análise”, porém não simples análise de elementos, e sim da sua “articulação” em função daquilo que é então suposto produzido como Forma, o produto da cultura ou do pensamento, que estamos interessados em entender. Conforme o estruturalismo, os elementos preservam sua irredutibilidade na exterioridade da composição ou “articulação”. Eles não são naturalmente as partes do todo, mas não há todo além deles enquanto articulados.                    
           Em Lógica do sentido (São Paulo, Pespectiva, 1974), Deleuze apresentou o que designou “paradoxo de Levi-Strauss”. Havendo duas séries, significante (o grafismo ou o som) e significada (a definição do signo), a primeira está em excesso com relação à segunda, há sempre mais signos do que o saber das coisas que nos permite aplicar os signos que as identificam. Mas se é assim, “a série significante organiza uma totalidade preliminar, enquanto que a significada ordena totalidades produzidas”. Nós adquirimos a linguagem somente quando apreendemos todos os elementos em conjunto, mas o siginificado, da ordem do conhecido, é conforme à ordem do movimento progressivo, gradual. Citando-se Levi-Strauss: “O universo significou bem antes de termos começado a saber o que ele significava”. (p. 51)
           Eis porque, ajunta Deleuze para demonstrar o nexo que Strauss estabeleceu entre esse princípio e a etnologia, “a lei pesa com todo o seu peso antes mesmo que saibamos qual é o seu objeto e em que se possa jamais sabê-lo exatamente”. Uma sociedade não constrói um tipo de regras antes que outro, ela “tem todas ao mesmo tempo: jurídicas, religiosas, políticas, econômicas, do amor e do trabalho, do parentesco e do casamento, da servidão e da liberdade, da vida e da morte, enquanto que a conquista da natureza em que ela se emprenha e sem a qual não seria sociedade se faz progressivamente, de uma para outra fonte de energia, de objeto em objeto”. (p. 52).
           A lei é a totalidade de uma razão social estritamente localizada, conforme o culturalismo funcionalista exigiria, porém não sendo cosmos de significados atribuídos, a lei é uma unidade transcendental que se produz por meios formais, universais, combinatórias significantes de que depois vai depender o ajuste do que é descoberto empiricamente.
          A descoberta empírica está pois regrada na sua possibilidade de ser dita antes de existir como tal. O homem feudal certamente não tinha um cérebro diferente do nosso, mas não era capaz de fazer descoberta empírica, mesmo na clandestinidade, como herege, que não confirmasse uma visão de mundo de algum modo bíblica.
           Assim, da universalidade do transcendental como forma da combinatória que articula signos, o que se segue não é a unidade da experiência possível, mas a particularidade de uma combinatória efetuada como esta ou aquela cultura, ou seja, um conjunto de regras, de sistemas de regras, inter-relacionadas.
           É menos claro apreender a necessidade da transposição da linguística para as teorias textuais – como a teoria da literatura, etnografia, e disciplinas correlatas – uma vez que os expoentes do emergente “estruturalismo” operaram nomeadamente com a linguística de Saussure. Estes expoentes são principalmente Levi-Strauss, Lacan e Althusser, como também Piaget. Mas o pós-estruturalismo, que opera com o mesmo princípio, já permite esclarecer esse ponto.
            Está claro que tanto o funcionalismo quanto o estruturalismo pensam em termos de todo como “estrutura”, o determinante, mas para o primeiro ela é o próprio todo enquanto que o segundo a conceitua como a articulação das partes.
         Vejamos como a mesma linguística saussuriana permitiu a transposição do funcionalismo ao estruturalismo. Já houve suficiente demonstração da ambiguidade de Saussure, entre a langue – a língua formal, oposta à fala (parole) – como sistema de diferenças e/ou de identidades. Mas para a transposição que ora nos importa, mais importante é a ambiguidade saussuriana entre significante e significado.
          Basicamente Saussure fundou a linguística ao conceituar o objeto científico desta, a “langue”, o sistema de signos, independente de qualquer parole em que se atualiza. O que a langue faz é extrair do fluxo sonoro que virtualmente pode o ser humano produzir, unidades mínimas designadas fonemas, que compõe os únicos sons, assim limitados em número, que uma língua pode combinar para formar sílabas e palavras, das quais se seguem frases e textos.
           Uma língua não seleciona os mesmos fonemas que outra. Além disso, a descoberta de Saussure é que a extração dos fonemas não é feita ao acaso, mas segundo uma combinatória opositiva. O som “b”, por exemplo, é extraído por uma língua como o Português, porque nela se opõe a “p”, de modo que podemos distinguir “pato” de “bato”.
         Conforme a descoberta de Saussure, depois da tenra idade nós não podemos mais produzir quaisquer sons do fluxo virtual, mas nos tornamos limitados a produzir somente os da nossa língua. Pesquisa laboratorial em psicologia confirmou isso, ao mostrar que mesmo antes de aprender a falar, os sons aparentemente aleatórios que o bebê produz vão se tornando sempre mais nitidamente limitados à reprodução daqueles praticados pelos adultos à sua volta. Eles estão praticamente limitados aos da sua língua quando então aprende a falar.
          Ora, Saussure designou assim duas leis fundamentais da langue. Primeiro, que os signos com que ela lida são arbitrários, o que Peirce designa símbolo, inversamente a ícone e índice. O ícone é como o retrato de uma pessoa com relação a ela mesma, o índice é como a fumaça com relação ao fogo que denota. Nestes dois casos, o nexo entre o signo e o referente é necessário.
         Mas o símbolo é pura convenção. Não há motivo plausível para uma casa ser designada em inglês “house” e em português “casa”. É o mesmo objeto, mas a convenção varia. O signo “simbólico”, nesta acepção estrita, é inteiramente arbitrário, ou como se diz, imotivado. Já na literatura, como Barthes salientou, o próprio símbolo se torna motivado. Num romance se o personagem se chamar "Valente", ou o estilo é sério e ele é mesmo "valente", ou é piada mas porque se trata do contrário e ele é justamente "covarde". O uso comum do nome próprio é obviamente independente de qualquer conotação desse tipo e pareceria infantil confundi-lo.
           A segunda lei não é apenas semiótica, isto é, referente a uma ciência geral dos signos, mas propriamente linguística. Ela determina que todo signo da língua é um ser duplo: tem uma materialidade significante, e uma idealidade significada. O significante é o som da palavra ou a marca impressa com a qual a escrevemos. O significado é a definição do termo. A ambiguidade saussuriana residente, pois, nessa segunda lei, relaciona-se ao fato de que uma língua é ao mesmo tempo a langue universal e uma langue (idioma) particular.
        Ainda que um idioma reproduza todas as leis estruturais universais da langue, como vimos duas línguas não coincidem de forma alguma quanto aos seus modelos intrínsecos de funcionamento. 
     Mas assim, não existindo senão langues particulares, Saussure insistiu em que os próprios significados, além dos significantes, são particulares à língua. Eles podem ser aproximados por traduções, mas de fato o significado pleno de um termo pertence à língua em que sua convenção foi restrita.
         Isso também é geralmente confirmado. A “intradutibilidade” tornou-se lei, jocosamente popularizada pelo trocadilho de que “traduzir é trair”. Ninguém em sã consciência vai doravante crer que “queijo” para um francês seja o mesmo que para um inglês, mesmo que até então todo mundo juraria que é igual. 
            Nós temos da palavra “cor” a maravilhosa conotação de uma miríade de nuances, mas há povo africano de que se registrou só dispor de termos para duas cores, uma para azul/verde (hui) e uma para vermelho/amarelo (ziza). A neve que vemos é branca, para os esquimós tem dezenas de tonalidades de branco, com palavras correspondentes, assim como dezenas de palavras para “neve”.
         Mas tornou-se algo dramática a intradutibilidade na evolução da antropologia de campo, quando se descobriram praticantes de línguas que nem mesmo se saberia como traduzir, tamanha irredutibilidade do seu funcionamento – como no exemplo de Strauss, uma língua em que se articula frase aproximadamente como “a brutalidade do homem feriu a fragilidade da criança”, quando aparentemente o que se queria atribuir era o ferimento de uma criança por um homem. De fato, não sabemos se o sentido da frase pode se resumir pelo esquema que nos é habitual, alguém pessoalmente faz algo a outrem. Quine, especialmente, se ressentiu tanto disso que empregou enorme esforço teórico para atualizar o empirismo na moldura da intradutibilidade.
           É certo que já poderíamos ter suspeitado antes. Não sabemos realmente o que significa “glaucos”, qualidade atribuída pelos antigos deuses aos olhos de sua deusa Atená. Nós supomos que são “verdes”, alguns supõe que são verde-azulados, ou em todo caso “brilhantes” – parece que, estranhamente, ninguém pensou que pudessem ser “azuis” ou “castanhos” – mas de fato é um enigma. Em geral as cores dos gregos são enigmáticas, como a que atribuem ao mar.
           Ocorre que as adaptações preenchedoras de lacunas assim foi a regra antes que uma ciência real começasse a se ocupar da informação empírica in loco, como antropologia “social”, em inícios do século XX. Então gradualmente eliminou-se a oportunidade para adaptações, e o que se demonstrou foi, inversamente, o caráter autotélico das culturas.
          Em todo caso, vemos que o funcionalismo abraçou a irredutibilidade do significado e viu a langue como um sistema modelizante de mundo, uma totalidade de significações, uma “compreensão” existencial, irredutível à outra. Em contraposição, o estruturalismo privilegiou a irredutibilidade do significante, por onde ao invés de uma compreensão, a totalidade de uma língua é a coerção que resulta da combinatória quase-matemática da combinação das partes.
           O estruturalismo descobriu que essa combinatória poderia ser generalizada dos fonemas de uma língua para quaisquer elementos mínimos articulatórios de quaisquer sistemas, como os parentemas de Strauss, as unidades mínimas de atribuição de parentesco, que são as variáveis em diversos sistemas sociais (tio, tia, pai, mãe, sobrinho, sobrinha, filho, filha). A “materialidade” do signo se tornou o fator mais importante, justamente como o que o estruturalismo utilizou para explicar a aptidão de um todo em auto-conhecer-se, na forma da ciência em geral -  e da ciência estrutural como corolário.
             Declarou-se o estruturalismo em peso, com exceção de Piaget, na tradição kantiana do transcendental. Mas assim expressou tratar-se no kantismo, por um lado de racionalismo puro, por outro lado, em termos de estruturalismo, de uma variação tal que o mais puro racionalismo conduz à apreensão da materialidade do signo, como as operações algébrico-formais da linguagem científica, e é esta apreensão, este relaxamento da censura “idealista”, que é ao mesmo tempo a fantasia de que o determinante é o significado, o que assinalaria a entrada na capacidade psíquica da produção científica.
            O funcionalismo não adota necessariamente a teoria do signo arbitrário. Formula a noção de linguagem icônica, supondo que poderia haver algum motivo pelo qual o signo imita a imagem da coisa vista, porém esta é uma teoria bastante incômoda, pois teria que se explicar porque línguas desiguais veem coisas tão diferentes. Ainda que a significação seja “compreensiva”, ele pode explicar porque o léxico de uma região contém termos que designam coisas inexistentes no léxico de outra – assim foi demonstrado que para uma mesma língua, os habitantes de um certo vale montanhoso desenvolveram léxicos com termos diversos dos montanhistas da cumeada. Porém isso não é o mesmo que explicar que o som "casa" retrata algo visto como residência., assim como o som "house".
           Registro aqui, ainda que não seja muito ventilado, que na Antiguidade houve uma teoria indicial da linguagem. Sexto Empírico a expõe como cética. Ainda que a escola pretendesse não formular doutrinas positivas, esta se apresentava justamente como um meio de destituir de sentido doutrinas dogmáticas.
           Segundo o uso que hoje podemos designar indicial, como vimos,  um signo representa algo como o que une a fumaça e o fogo. A palavra deve se entender como o sinal da coisa. Porém constatamos que o símbolo é um funcionamento alternativo, pelo qual o significado da coisa é construído apenas por signos arbitrários, como as  palavras. A este funcionamento, os céticos destituíam de sentido. Atribuindo-o à imaginação, constatavam que era exatamente o uso que os dogmáticos fazem da linguagem. Não é que formulassem uma teoria icônica, mas sim que pensavam que o termo na linguagem corrente é o signo de algo concreto, enquanto na linguagem puramente dogmática é algo restrito à própria definição. Mas assim teríamos um círculo que impediria compreender o significado. A definição depende do termo que depende da definição.
            Nesse uso arbitrário, não se poderia se afirmar estar realizando ciência na acepção grega de Teckné. O uso arbitrário é ilustrável por um tipo de pseudo-ofício como a gramática, as matemáticas ou a astrologia e a a filosofia - que já não se pode afirmar ser composta de  enunciados racionais.
           A argumentação cética se baseava muito na fricção dos enunciados filosóficos rivais a propósito de um mesmo objeto. Mostrando o caráter indecidível dos enunciados, pois nenhum refuta o outro além das premissas em que se baseia, esperavam desconstruir a pretensão de que o correlato significado dos conceitos filosóficos tinha alguma existência objetiva assim como tem os étimos da linguagem comum, ou de que aquelas citadas práticas são verdadeiros e ensináveis “conhecimentos”. Então, quanto a esse uso puramente imaginativo, os céticos atribuíram um caráter puramente “convencional”, o que para eles significava contudo algo destituído de realidade ou diverso da realidade. É curioso que ao inverso da nossa terminologia atual, eles nomeassem "índice" a um signo unicamente convencional  (incompreensível). Ao signo que nós designamos "índices", eles chamavam "rememorativos"
              Como eles eram pensadores antigos, não havia necessidade de explicar qualquer necessidade subjetiva da imaginação ou da verdade, esta que faria alguém até mesmo negar a possibilidade de conhecer diante dos fatos incongruentes do próprio assim considerado saber. Ao ver dos céticos, acumulando signos rememorativos na linguagem, assim com construímos a comunicação usual podemos também construir técnicas úteis, como a medicina, lembrando que “empírico” em grego antigo é o epíteto de alguém que exerce a profissão de “médico”.
        Podemos nesse ponto proceder também ao teatro de marionetes que perfaz uma discussão clássica, e encenar a contraposição das três vertentes que referenciamos, a propósito do que vimos: um representante da assim designada escola analítica (empirismo atual, ainda que sem relação com análise estrutural); um funcionalista; e um estruturalista,
            O representante da escola analítica afirmaria que também ele está interessado em discernir qual a regra está seguindo alguém que age do modo como age. Porém a seu ver, a regra seria universal. Qualquer pessoa poderia compreender a regra, assim que a análise - apenas o discernimento das partes - permitisse saber qual fora ela pela observação da ação. E assim no limite poderia haver uma comparação da melhor regra para a mesma ação, o que faria das ciências, algum dia, repositório do melhor curso com relação a quaisquer das ações do homem. Pois a ciência teria descoberto o verdadeiro contexto empírico, relativo à natureza psico-física, em que a ação revela ter ou não sentido.
             O funcionalista responderia que a ciência assim ignora a “compreensão” total da situação, a qual é irredutível para diferentes visões de mundo. O estruturalista poderia responder também que não se trata da “mesma” regra, mas a seu ver o neoempirista e o funcionalista cometem o mesmo engano, pois ambos supõe que a ligação da regra, não importa de que natureza, com a ação, é intrinsecamente coerente no plano dos significados. Ou seja, no limite, aquilo que se faz.  Ao ver dos estruturalistas, porém, a coerência é tão sem semelhança com o que decorre apenas nesse plano, quanto o que se poderia demonstrar da decalagem entre o nível opositivo fonético e o lexical semântico. Tornou-se moda atribuir a privilegiados autores pré-estruturalistas o insight estrutural, mesmo que cum grano salis, como Lacan em relação a Freud, e Althusser a Marx.
             O “sujeito” da ação, o que atua como ego ou como agente na produção econômica, é constituído pela rede posicional que articula os elementos mínimos, rede inscrita em seu inconsciente, mas as regras que ele conscientemente segue ou que poderia discursivamente atribuir, trafegam num nível de efeitos, não de causa estrutural. O ego supõe que é toda a consciência, o agente da produção supõe que está agindo conforme a livre iniciativa, mas inconscientemente está agindo a estrutura instintiva que forma o ego, e do mesmo modo, o recurso discursivo que justifica a ação do sujeito só funciona porque ele ocupa uma certa posição na sociedade.


        XII)
 
       Neste trecho, examinaremos algo da controvérsia epistemológica que se espraia da segunda metade do oitocentos até o cenário do  existencialismo e o que dele se segue até hoje em termos de problemática histórico-epistemológica.
          O proveito aqui é notar a coerência interna desse período gerador, não obstante a extrema pluralidade teórica. A coerência é dada pelo fato da crise do saber, a partir do que vimos tematizado em Boutroux e  Cournot, como a refutação da unidade da razão a partir da constatação da
irredutibilidade de ciência e senso comum.
      
 
       A incompatibilidade  da ontologia ou metafísica tradicional e existencialismo. Trata-se do emblema da obra de Heidegger. Porém menos compreensível de imediato é a relação que a crítica culturalista contra a substância universal - mais do que contra o mero "idealismo" - mantem com seu objeto.  Ela não rompe a tradição da unidade da trajetória ocidental. Considera-se por um lado, o existencialismo, uma descoberta que só tem como precedente o que se "esqueceu" na história, porém naquele início esquecido e fecundo, sem ainda o antídoto contra a malversação histórica. Por outro lado, o esquecimento não para de se fazer em função "do que" foi necessário esquecer, de modo que é aindaessse fazer que impulsiona o que o inicio mesmo definiu em termos do necessário ao pensar.
     É nessa ambiguidade, ao invés de por um viés simples, que devemos endereçar a proposição de que a incompatibilidade de ontologia metafísica e existencialismo  é o pivô de todo comentário heideggeriano a Aristóteles, como decisão sobre o que une ou separa as suas metafísica e  lógica, por um lado, das suas  ética, política e retórica, por outro lado, neste em que podemos também situar a dialética.
          Aqui interessa-me contudo menos Heidegger e sua dívida para com Aristóteles, quanto a hipótese de que a recuperação do aristotelismo humanístico é a culminância de uma trajetória, ao invés de algo inteiramente inaudito posto pessoalmente por Heidegger. Ou ao menos, é coerente a essa trajetória. Em todo caso, creio ser urgente que a trajetória seja esclarecida para assim ser possível contextualizar a irrupção da hermenêutica de Heidegger na história da filosofia.      
         Bréhier, ao apresentar o neotomismo católico do Padre Maréchal, produz um enunciado a meu ver muito apropriado a entender o interesse e o lugar de Heidegger nesse pivô.

            Contra o neokantismo - este que veremos à frente - Maréchal desarticula a controvérsia histórica da afirmação do noumeno contra a da intuição intelectual. Aqui, a inserção de Fichte. Como se sabe, ainda em princípios do século XIX, Fichte reintroduzira a "intuição intelectual' independente do veto kantiano, sendo “intuição intelectual” a propriedade da razão transcendental convertida em consciência por ter-se elevado ao Cogito. Ou seja, a capacidade de auto-percepção, ao invés da subjetividade ser apenas resultado da percepção sensível a priori do tempo, entre o antes e o depois. Esse pós-kantismo inicial não resume a crítica do neotomismo a Kant.       
           Maréchal pretende algo bem inverso a reduzir o noumeno, senão como incognoscível absoluto da depurada razão, como incognoscível relativo ao Eu. Afirma a cognoscibilidade do noumeno justamente nessa região da subjetividade em que se insere a razão prática, voltando contra Kant o estabelecimento de Deus apenas como valor objetivo da ética universal. Mas assim deduz Marechal que se somos sujeitos dessa ética, não podemos nos separar de nós mesmos quando pensamos, então a razão prática precede a teórica: “ter-se-ia, então, fundado a realidade objetiva desses postulados [da razão prática] acerca de uma necessidade pertencente ao domínio especulativo”, conforme a citação de Bréhier (p. 189).
           O que parece-me aproximar Heidegger do ver de Maréchal, não obstante o primeiro não ser um pensador teológico, é que “se nossos conceitos não ultrapassam a quididade”, segundo Bréhier, eles tem, na expressão de Maréchal um “'elemento de significação'". Ao  qual Bréhier atribui como “objeto representável indiretamente”, aquilo que “envolve uma relação ontológica com o absoluto; a realidade condicionada que nos é dada pressupõe em face desse elemento, uma referência ao Absoluto” (p. 190).
        Na transição à fase de 1930, vimos que também Heidegger rompeu expressamente com o neokantismo, por uma ênfase similar na conexão da independência real do significado com a inserção prática do sujeito, o que na verdade não elide de fato a religião entre as possíveis partes formativas da cultura histórica em que a existência está situada. A inserção prática em Heidegger tem um sentido que não é exagero designar Absoluto. Em vários aspectos pode-se demarcar uma posição neokantiana expressamente contrária ao Aristóteles metafísico, ainda que preservando o Aristóteles prático.
      As relações entre Heidegger e o neokantismo, que formam um tema complicado na recuperação biográfica assim como conceitual de Heidegger, se desenvolve num paralelo, como vemos, com os problemas da leitura atual do próprio Aristóteles
          Na verdade, não se esclarece bem o sentido de “neokantismo” nessa proposição dos biógrafos de Heidegger, mesmo quando são tão bons quanto Martin Kuch. Uma vez que a acepção múltipla que ele tem não é apenas uma questão de interpretação idiossincrática, mas do registro histórico, como se manifesta em Bréhier.
           A princípio, Bréhier registra que há um neokantismo stricto sensu iniciando-se em 1865 (Liebann, Lange), do qual desdobram-se várias escolas que Bréhier designa neokantianas apondo-lhes o designativo pátrio: neokantismo italiano, iniciando-se em 1878 (Cantoni, Barzellotti, Chiapelli); badense, desde 1884 (Windelband, Rickert, Troeltcsh, Bauch, Münstenberg); neokantismos de Marburgo (Cohen, Natorp, Cassirer), desde 1902.  Porém este desde  1871 para Philonenko, na História da filosofia de Chatelet.
           Mas, o que Bréhier não sublinha, também há vários movimentos importantes na história das ideias, que se desdobram do neokantismo. Podemos destacar três, da maior envergadura.
             A princípio, reunindo Rickert, Windelband e Dilthey, foi o movimento do qual partiu a reintegração pós-positivista das Ciências Humanas em torno do Verstehen (comprender), isto é, vindo da oposição que se tornou famosa desde Dilthey, às ciências da natureza, como metodologicamente incompetentes para lidar com os conteúdos de humanities, culturalmente irredutíveis no tempo e no espaço. A metodologia do Verstehen, humanística, se oporia a do Erklaren (explicar), adequada só às ciências naturais.
            Porém essa apresentação simplifica bastante as coisas, uma vez que autores sublinham o fato da iniciativa neokantiana contra o reducionismo positivista, desde aproximadamente os anos setenta do século XIX, ter sido a princípio um limite dyltheiano anti-científico, por onde os temas humanísticos só poderiam ser tratados literária ou afetivamente, e só na sociologia de Weber ele teria realmente sido superado como inteligibilidade do Verstehen própria de algo como “ciências humanas”. Gorman tem uma resenha interessante sobre a evolução do "compreender" desde Dilthey a Weber.
          Bréhier não fala de Dilthey nesse ponto, nem da polêmica do compreender versus o explicar, e trata os demais citados como grupo da Escola Badense. Mostra que nesta, como em Windelband, tratou-se da filosofia como o desenredamento dos valores desde o caos da experiência. Os valores seriam consciência, sistema de noções que representam a cultura, e o kantismo, reunindo sob o “dever-ser” (Sollen), o verdadeiro do pensar, o bem do agir, o belo do agradar, sistematiza as regras sociais.
         Assim também Rickert opera a trasposição do idealismo subjetivo a idealismo transcendental: “A filosofia procura determinar não somente esse reino de valores, mas as relações que as realidades tem com os valores, isto é, a significação ou o sentido (Sinn) que certos objetos ou acontecimentos tem relativamente a determinado valor” (p.155).
            O tratamento de Bréhier é bastante esclarecedor quanto à filosofia, mas não acentua o mais importante fenômeno histórico, que é a generalização da premissa a um novo situamento de todo o campo das Ciências Humanas.
          Ao acentuar aqui esse ponto, noto que o neokantismo teria eliminado a cisão kantiana entre prático e teórico, o que expressamente almejava Heidegger. E o que este pensava ter feito o próprio Aristóteles, ainda que refazê-lo na atualidade devesse resultar no contrário da sedimentação metafísica. O feito neokantiano para Bréhier implicava a  transposição ao teórico de toda problemática cultural, conclamando a volta a Kant porém ao visar os valores culturais como objetos em sistemas autônomos a priori. Heidegger, segundo Kuch, almejava precisamente o contrário, ainda que trazendo o Ser para o âmbito da existência situada. Mas se a existência  é irredutível ao empírico, o Ser é Forma  a priori  para Heidegger, mesmo que a Forma apenas reúna os elementos numa práxis dotando-os de sentido.              Nessa linha kantiana, em todo caso, a subjetividade é a fonte da objetividade, ponto em que o kantismo havia estacionado em princípios do século XIX, cedendo ao pós-kantismo romanticista porque, como se fez ver quando o kantismo penetrou na França, essa colocação soou como paradoxo inexplicável. Além disso, seria paradoxal também que a fonte do Cogito, a Razão depurada do noumeno, estivesse porém num ser em si noumênico, nós mesmos.
           Por onde o êxito da intuição intelectual, de Fichte a Schelling e Hegel, de modo que o objeto independente realmente se anula numa realidade que é Sujeito auto-inteligível, sem noumeno.
            A sorte desse romanticismo foi, porém, defrontar-se com a revolução materialista do Positivismo reforçado por Darwin, por onde o homem se torna produto do meio e quanto a este, estritamente objetivo. Porém de uma objetividade apenas empírica, ao modo das ciências naturais. A práxis aqui informa, ao invés de ser informada. 
        Mas agora o neokantismo como um movimento abrangente é um movimento entre a preminência a priorística do Cogito e uma concepção dos valores que almeja preservar a objetividade, ampliando seu alcance.
           Nesse ínterim, os quadros das ciências naturais se deixam questionar porque o crescendo das descobertas desbordou o limite de uma razão que pudesse caber na apreensão cotidiana. Comte até mesmo pretendera simplesmente proibir pesquisas entre campos irredutíveis, como entre física e matemática, porque a ciência a seu ver era o próprio nexo social - após as eras da religião e da metafísica. Limitação que obviamente não seria nem foi possível. Pelo contrário, as leis e princípios que se descobriram desde aí só tornaram questionável toda tentativa de forjar uma imagem homogênea da inteligência, assim como um quadro estanque das disciplinas.
        Por outro lado, o tratamento naturalístico da sociedade também se torna insuficiente quando o acúmulo de conhecimentos da alteridade cultural e históricos vai mostrar resultados imprevistos por aquele método materialista generalizante, e incompatíveis com ele.
                Ora, a Escola de Marburg (Cohen, Natorp, Cassireer), por sua grande importância na história recente, tendo tido um auge entre os anos noventa do séc. XIX, e vinte do novo século, pode ser tratada independente dessa designação de Bréhier, como em Philonenko, porém sendo nítido o enfoque neokantiano do mesmo modo.
         Trata-se aí da ênfase na construção e no método, numa reflexão de Cohen que visava inicialmente tornar a validar as ciências pelo criticismo, nesse momento em que elas estavam em manifesta crise epistemológica. Mas desse passo em diante, a Escola almejaria que Kant pudesse ser ampliado para uma filosofia dos valores, a partir do tratamento objetivo, construído racionalmente, destes.
         Quanto a esse situamento na crise, é o que se pode notar, não obstante o fato de ser este o momento da viragem real das ciências empíricas como definição histórica da sociedade atual, industrial. O positivismo, em meios de século, havia sido a afirmação altissonante, mas desde os anos setenta é que as descobertas vem formar a base do que se conhece atualmente como princípios da ciência real.
           Então o caso quanto à teoria do conhecimento transformado em teoria da ciência, é outro. Ao invés de estabilização triunfal do novo, trata-se de crise irreparável dos valores. A ciência dos fatos, como de suas leis, não conserva já possível demonstrabilidade ao entendimento previsor de como as coisas podem ser. Como se nota por um percurso desde a teoria da ciência restrita ao empirismo puramente sensista de Mach, até a negação de inteligibilidade real dos conceitos como em Vaihinger, onde, parecido com Nietzsche, a ciência deixa de ser captação da realidade para ser apenas adaptação finalista/valorativa, de modo que se fazem ver as contradições internas aos conceitos científicos. E Hannekin do mesmo modo que Vaihinger, mostrou que a mecânica não é totalmente inteligível, não sendo inteiramente harmonizável com os conceitos do entendimento comum.
      O que está nascendo agora como base da ciência, o princípio da conservação, a redução da física ao conceito de movimento, a termodinâmica, as leis da química, são descobertas válidas apenas dentro do seu próprio campo, não extensíveis à experiência cotidiana. Bréhier mostra assim como dessas críticas, a que também se podem juntar Cournot e Boutroux, desdobra-se um cenário que é pós-positivista não porque o empirismo de Mach e o convencionalismo de Poincaré tenham sido de todo refutados.
             Mas sim por ser dominado pela evidência da descontinuidade, que até aí funcionava sempre como o elemento irracional do par formado com o contínuo, e quanto a este, agora se torna intrínseco apenas ao movimento físico. O que parece a Hannekin tão incompatível com a razão comum, devido a conjugar numa mesma continuidade tempo e lugar.
           A descontinuidade desconcertante é contra-leibniziana, a natureza produz por saltos, e as próprias ciências são esferas autônomas, impossíveis de reunir qualquer metafísica a partir de si. Além disso, oposições como direito e fato, introspecção e observação, estabilidade e transformismo, também deixam de designar o oponível em geral como racional-irracional. São os segundos termos destes pares que vieram, pela ciência nova, ao plano da Episteme.
           Conforme Bréhier, eis por onde se torna tão oportuno o neokantismo. Os quadros do espírito se tornam, como na ciência do número que em Hannequin é o único centro da referência puramente racional conservada na ciência da matéria, o vetor da orientação geral, não obstante o espírito manifestar-se só aplicado aos fatos enquanto vão sendo conhecidos, conforme o enunciado de Darbon. Nietzsche saudava em Kant uma plenitude do criticismo, a independência do espírito frente ao noumeno.
            Porém na sequência, vindo dos anos setenta até agora, este período que começa em 1910, para Bréhier será, ao contrário, de um realismo incompatível com essa orientação neokantiana. E o realismo, devemos lembrar, é onde Bréhier situa Husserl e Heidegger.
          Agora, “situar a descontinuidade no âmago das coisas é longe de impor aos objetos da experiência os quadros do espírito, renunciar ao idealismo criticista de Kant, que, de maneira mais ou menos latente, inspirou quase todo o pensamento do século XIX” (p.146), isto é, tudo o que não foi estritamente positivista.
         O estudo dos neokantismos serve a Bréhier de ilustração dessa sequência em que a Relatividade e o indeterminismo quântico vão coroar a incompatibilidade do tempo ao kantismo. Porém Bréhier nisso se engana. O estruturalismo, que ele não conheceu, firmando-se a partir dos anos cinquenta, é um novo momento do kantismo. Porém é verdade que antes dessa época, o período que começa em 1910 é de intensa crítica da independência das ciências. Como vimos, Philonenko assinala a importância de Marburgo mesmo após esse período - e de fato continua atual em filosofia da história.
            O próprio neopositivismo de Viena ou cientificismo absoluto, quererá ser uma visão de mundo, desejo que não abandonou até agora, e vem se tornando o epicentro da problemática política do nosso tempo, uma vez que implica a anulação de todas as demais visões na cultura.
          Enquanto que, por outro lado, neometafísicas que são críticas da antiga metafísica como cientificidade, como de Bergson e iniciativas aparentadas à própria fenomenologia-hermenêutica, esperam consolidar a validez da cultura como de visões de mundo cuja inteligibilidade estaria garantida em função da objetividade do próprio ser assim do espírito. A totalidade se torna a palavra-chave, e nem mesmo o indeterminismo quântico a questiona, uma vez que a integra num novo paradigma “funcional”.
             E, também, podemos situar como a segunda tendência que vem do neokantismo, o próprio assim por Bréhier designado realismo, de Husserl e Heidegger, enquanto relacionados à problemática do Verstehen. Não obstante desse modo a questão da trajetória e as irredutibilidades de fases se tornarem preponderantes.
            O terceiro ângulo de incidência do neokantismo é o que se desdobra nas escolas que Bréhier tratou localizadamente. Com a escola de Marburgo, Heidegger tem ligações manifestas, especialmente sendo o caso de Natorp, enquanto, inversamente, Cohen é expressão da manifesta oposição subsequente de Heidegger.
          A Escola de Marburgo revela, no tratamento de Philonenko, três fases em que, primeiro, estava unida em torno de Cohen, produzindo desde a transição ao século XX, depois se tornou preponderante certa divergência de Natorp, e afinal decorreu a independência dos caminhos de cada um. O desdobramento de Cassirer como filosofia das formas simbólicas, neste terceiro período, parece-me bem oposto ao que concomitantemente estava assinalando-se como a trajetória de Heidegger - não obstante a coincidência inicial que já visamos, Heidegger evoluiu para uma posição bem mais indeterminista como Kuch salientou, visando apenas a arte como referencial da pesquisa sobre a originalidade das visões do Ser.
           Philonenko pende para Cassirer, como neste desdobramento tendo se tornado a contribuição mais brilhante da Escola, por causa das ressonâncias possíveis com o estruturalismo que sobreviria depois.
          A meu ver Natorp é realmente mais instigante, uma vez que na atualidade o neo- determinismo estruturalista está questionado, não só pelo pós-estruturalismo, que diversificou o alcance do “programa” inconsciente para cobrir como casos independentes culturas autônomas, deixando de subsumi-las a anterioridade de um progresso único. Mas porque a heterogeneidade interna e interlocução externa das culturas não mostram poder ser domadas pelos dogmas de incompossibilidade e homogeneidade que continuaria dominante em cada uma.
           Ora, desse modo a “diferença” deixa de ser uma senha transitável. Pois, como as coisas vieram a se encaminhar, na altura a partir da qual se tornou questionavel também o estruturalismo, desde os anos oitenta do século XX, a “diferença” não se pensava relativamente a Heidegger, mas só ao campo estrutural que a este era porém antagônico assim como a todo existencialismo.
             Hoje a irredutibilidade não nos parece capital, e o termo “diferença” relança o antigo, insidioso parentesco, que o estruturalismo tudo fez para apagar. Como algo comum, portanto, a todo século passado anterior aos anos oitenta, a “diferença” está hoje delimitada pelo questionamento de algo mais, que ela não deveria porém ter deixado por pensar. A “referência” é o que efetivamente se constrói, atravessando a oposição de identidade e diferença, mas a característica do ser construído não mais explica, é o que começa a ter que se explicar.
           O neo-neo-kantismo estruturalista, assim como o predecessor humanístico que ora estudamos, tinha como certo aquilo que a nosso ver é duvidoso, ao menos em caráter exaustivo da explicação, a linguagem como sistema: totalização a priori modelizante do mundo ou combinatórias interseccionadas por uma legalidade intrínseca. O sistema se reintegra a um uso, que pode ser porém voluntariamente o questionamento do sistema, como estamos considerando mais atualmente. O experimentalismo de hoje não é o do signo, mas persevera sob as aparências do “texto”.
            Tornando a Kuch, se a ruptura em si de Heidegger com o neokantismo devesse ser especificada quanto ao sentido deste,  também deveria quanto ao próprio Heidegger, pois se é como vimos, não só Husserl está relacionado aquela tendência. E, sobretudo, não se designa também em que se pauta a ocultação, o que liga Husserl à crítica em tela.
           A extensão do estruturalismo ao seu "pós" é ainda anterior ao verdadeiro pós-modernismo, que vem dos anos oitenta. Aqui estamos porém limitando a apreciação à trajetória que podemos considerar de algum modo formativa de uma história das metodologias. Como ilustração do pós-estruturalismo, vemos que as problemáticas da exegeses heideggeriana permaneceu instigante para os objetivos de transpor os princípios funcionais à estrutura, como em Derrida. Visando a mesma época e contexto de Heidegger, ele desenvolveu também aportes interessantes relativamente a Artaud.
         Derrida critica a visão de Blanchot sobre Artaud. É a seu ver insuficiente também a de Pontalis.  Ora, o que resta é o enigmático, o que não se deixa esgotar num percurso de contradição manifesta a tudo que se deixaria analisar. É esse percurso o de Artaud, e lidar com ele sem estabelecer previamente esse seu elemento, seria reduzi-lo forçosamente ao que ele não é. Não podemos, por outro lado, cingi-lo a algo que ele é. Antilogiké, porém sem dialética, logo, o problema não se deixa traduzir na história das ideias na concepção crítica de Derrida.
             Avançando ao resultado da empreitada derridiana. Encontramos a proximidade Artaud-Heidegger. Ambos um mesmo problema, que Derrida trata sem designar o plano de fundo, que nós que conhecemos seus outros textos pressentimos bem, isto é, esse plano de fundo que é a própria teoria derridiana da Escritura.
          O problema, então, só o é para essa teoria da Escritura. Em Artaud e Heidegger, a recusa do logocentrismo não é o a priori da recusa do fonologismo, o esquecimento da linguagem como escrita e signo inscrito. Para o cânon derridiano, isso é escândalo. Pois uma coisa é o substrato da outra, e só existe, só pode existir, um mesmo enunciado teórico do avesso da Escritura, o fono-logo-centrismo.             
           Então? Derrida deve construir o avesso ou, pelo contrário, instalar  os heróis da Escritura, ainda que sob alguma rasura ou ressalva? Se o texto em "A escritura e a diferença" é rico e complexo, se a leitura deve ser ao máximo cuidadosa, creio que seria prudente negar que ele heroiciza. Porém o avesso deixa de ser contraponto fantasioso da enunciabilidade plena, ele se torna vislumbre, quase-visão, suspeita, em todo caso biforme, podendo arrebatar o gesto no grito (Artaud) ou constituir-se, inversamente, na tessitura silenciosa do pensamento textualizado (Heidegger).               
            Toda suspeita é um entre-dois. Entre duas possibilidades, não um passo firme dedutivo a partir da certeza. Assim também, Artaud e Heidegger, dupla que desloca a inicial que localizava demais um sintoma, só na arte, a de Artaud e Holderlin, e sintoma de algo que na arte adentrou extrapolando-a, esquizofrenia, acesso, bem, a dupla Artaud e Heidegger põe tudo isso entre parêntesis para melhor introduzir um estilo infirme ainda que, sendo o caso de Artaud, esteja-se na indignação e na denúncia, no grito e no arrojo, e não no cuidado. Não existe um “estilo padrão”, quando por estilo estamos entendendo a maneira de expressão ao invés da fôrma técnica que hoje em dia expressa-se no programa computacional que ora utilizamos tão a contragosto, tão ao exposto da traição a toda inteligência humana por parte de uma função viral de sabotá-la a partir de nada mais que a veleidade de um domínio impossível sobre ela, ainda que só podendo expressar-se na idiotice do sem-sentido das disfunções com que este aparelho “Microsoft" veio tão bem dotado e até com o santo-dos-santos da dotação, a saber, a inevitabilidade do seu uso, como sabemos sobejamente, mas se até aí na história da arte estilo queria dizer a diferença da maneira, agora ele é sintoma. O que se introduz é pois, sem que se saiba totalmente ainda, o , pensiero debole à Vatimo, o “pensamento fraco” da pós-modernidade, sem metarrelato do progresso pela ciência como o oposto da dominação empresarial -  mas que ainda não se expressa desse modo porque ainda é decorrência de outro e não a inserção originária. É decorrência de ser o trajeto da suspeita, o inverso da apresentação da certeza.         
             Artaud e Heidegger atuam, pois, no entre-dois, cena dupla do juízo da tradição estética e da tradição conceitual, da arte e da metafísica. Pois se trata, em cada um deles, de um jogo duplo com cada uma dessas rubricas, a condenação vai de par com a restituição de uma heterogeneidade entrevisada, menos já possível na presença do produzido que possibilitada pela duplicidade do jogo da suspeita.
            Onde Artaud e Heidegger se conjugam, precisamente? Às páginas 271 e 287, de “A palavra soprada”, estudo de Derrida sobre Artaud, em A Escritura e a Diferença (ed. Perspectiva, 2011).               
             Na primeira, trata-se da epígrafe de Heidegger, na Introdução a metafísica, que também exemplificaria a posição de Artaud a propósito das relações entre linguagem, gramática e escritura. Aqui ainda Holderlin comparece, ilustrando a referência comum do pavor da letra que porta esse pensamento que, contudo, começa pela suspeita de si mesmo como possibilidade destinada da tradição e da metafísica, assim devendo não evitar o enfrentamento da letra conforme a margem da hipótese dela servir de abertura contra a fossilização da obra. O estar-de-pé da obra holderliniano começa a ficar de lado no arranjo das proximidades de Artaud, então o recurso é equipará-lo não a este mas a Nietzsche e o elogio da dança. O estar de pé da obra é a dança, o deus dançarino. Uma corrente de figuras, entre Artaud, Holderlin, Nietzsche e até Genet abrigam nessa correlação a temática do ato de escrita. A vara, a pena, a ponta do instrumento incisivo, é o que põe de pé, o que dança, o que apropria, etc., sendo os movimentos da mão que escreve. E por que não o teatro, para Artaud? Aqui o texto é extremamente complexo. Por um lado, sim, Artaud está desse lado, o teatro é ereção da vida, o contrário da peste, da cólera, da varíola, de toda doença, e a definição da doença é o motivo pelo qual o teatro ainda não começou a existir, assim como também não a dança que em Artaud, porém, é sempre parte do teatro, ao contrário de Nietzsche.
          Mas ele, o estar de pé da obra, é o que Artaud recusa como o metafórico, aquilo que faz da arte que era gesto, grito, transmutação da consciência, o contrário, o fixado como obra. O que opera a metaforização que literalmente rouba a independência do gesto é então a mesma coisa antes louvada, a ereção da obra, teatro, dança ou ponta da pena. A letra é aqui tanto o contrário do “sopro”, do roubo, do caráter aéreo da palavra-gestualidade que possibilita pela audição outra a traição na palavra-comunicação, é tanto o “domínio sobre o sopro”, como o contrário. Que isso significa, pois? - se todo o parágrafo se encaminha para a condenação artaudiana da letra como da estrutura gramatical da língua em termos de uma junção que Nietzsche não abordara mesmo quando unira à metafísica por demolir a estrutura gramatical. O que seria preciso ainda denunciar sendo o nexo estrutura gramatical e estar de pé da letra, o que, então, Heidegger é quem denuncia, armando-se assim a nova proximidade Artaud-heideggeriana.
          Na “Introdução a metafísica” , Heidegger atribui aos gregos a interpretação gramatical da língua a partir de que eles a consideravam oticamente, ou conforme a citação: “num sentido relativamente amplo, a saber do ponto de vista do escrito.” O “fluxo das palavras, a língua”, reduz-se assim ao inconsistente. Essa interpretação gramatica, dos gregos, vem “até à nossa época”.
          Portanto, deduz Derrida, não obstante ao que poderia nos induzir a crer a menção do fluxo, é Platão que se reencontra sob tais desígnios, esse texto derridiano refletindo muito da “Farmácia de Platão”, o estudo derridiano onde a questão da escrita e da fala, no Fedro, foi interpretada como construção de um pensamento da filiação, a pedra fundamental da sintomatologia do modelo ou paradigma. E, também, como algo que dos gregos vem até à nossa época: condenação da escrita em termos de algo seccionado da palavra falada, da voz que é reflexo mais próximo, primeiro, da fonte, a verdade da alma, e, por outro lado, salvação da escrita pela subordinação ao fonologismo.                     
           Metaforização, pois, de novo ambígua. Por um lado, a escritura metafórica é o salvo dessa metafísica implícita, não criticada, por outro, se Derrida diz em seguida que “é a metáfora que Artaud quer destruir”, ele não está dizendo que Artaud quer restituir, ou instituir revolucionariamente – pois, qual dos dois é a origem? – a independência da letra, ou, mais do que isso, a evidência dela como estruturante da fala. Ao que parece. Pois, segue-se: “Quer acabar com o estar-de-pé como ereção metafórica na obra escrita”.
          Na segunda referência da proximidade construída Artaud-Heidegger, é que notamos que, afinal, foi aí que a proximidade foi construída – tornando-se sub-reptícia por todo o entremeio em que se encadeiam: a) as considerações sobre o célebre anti-textualismo do teatro artaudiano; b) a relação dessa destruição do teatro clássico com duas coisas, a escato-teologia da culpa, antepondo-se Deus e o sagrado como o mal ao bem humanos, o roubo e a inspiração, e a revolução da corporeidade que não mais obedece a qualquer a priori fisiologista. Aqui a reinvenção do corpo não me parece o que foi para Deleuze, e Derrida não o acentua bastante, posto que Artaud não é o inimigo da organização, mas da fisiologia como pré-organização, nem do órgão, mas da subsunção do órgão a ela. Em todo caso, c) a subordinação dessa relação teatro-corpo com a letra-livro, na medida em que a subsunção classicista que aliena a voz como potência do grito e de tudo o que é necessária expressão do corpo, só poderia ter ocorrido quando o teatro foi literalizado no libreto; d) o tema da “noite que precede o livro” (p. 280). É a positividade do que Artaud valoriza como reconciliação com o devir, afirmação porém contrária ao reino do acaso no teatro. Afirmação por onde o sopro deixa de ser sinônimo de roubo e do impoder que possibilita o roubo, a saber, o caráter da palavra vir soprada de outro, de não ser originária ao pensar mas o que se impõe ao pensar desde outro que profere, e assim impede que o pensar pense originariamente, por onde a obra atravessou a escatologia, como porcaria, excremento, figurado pênis pela verticalidade, em todo caso ultraje ao corpo, apropriação ilegítima. Essa “noite” restitui pois um sopro não soprável, se for (re?)-criado um sistema da palavra não-fonético, escritura do grito que estaria oculta em antigos misticismos. Aqui, pois, a relação de Artaud com o ocidente não é tão simples quanto Derrida ainda pressupõe, não é apenas destruição; e) a loucura, afinal: aportando do puramente esperado, da essencialidade da espera desse sistema que Artaud projeta mas não apresenta, deseja mas não dispõe, ou conforme Derrida: “A loucura é tanto alienação como a desalienação. A obra ou a ausência da obra” (p. 286). Então, novamente, Heidegger.
         Se a loucura está, como essencial espera do sistema ideal da conjuração do sopramento-roubo e da restituição, espera que troca incessantemente as figuras do bem e do mal quanto ao sujo/limpo, impotência/poder, tradição/teatro, o entre-dois dessas determinações é que, vale a longa citação: “afrontam-se indefinidamente no campo fechado da metafísica tal como se afrontam a história aqueles que Artaud denomina os ‘alienados evidentes’ ou ‘autênticos’ e os outros. Afrontam-se, articulam-se e trocam-se necessariamente nas categorias, reconhecidas ou não, mas sempre reconhecíveis, de um único discurso histórico-metafísico. Os conceitos de loucura, de alienação ou de inalienação pertencem irredutivelmente à história da metafísica” (p. 287).
       Esse é o ponto de (re)-encontro Artaud-Heidegger, mas por um percurso estranho. Derrida ajunta ao que vimos, a informação de que não só se trata da história da metafísica, mas de uma época em seu interior, a saber, a época em que o Ser está essencializado como vida de uma subjetividade própria, e, assim, porém, vemos aqui Artaud resgatar aquilo que antes, à página 280, Derrida atribuía como o que Artaud conjurava e destruía, a “diferência”.
          Lá tratava-se das “pausas orgânicas” comandadas ao fluxo cênico pelo libreto clássico. Em geral, porém, “diferência” (“differance”) é o conceito derridiano que traduz, a meu ver, o espaço material da letra como o que se interpõe no movimento, portanto heterogêneo a si, do pensamento/expressão, desde antes, entretanto, dele poder se recobrar para si como, digamos, intencionalidade. Inconsciente/letra, sistema de diferenças como topologia de marcas, as quais não são primeiramente senão qualificação de espaçamentos inconscientes.
          É essa heterogeneidade que, até aqui, Artaud quereria conjurar na imediatez do gesto e do grito. Portanto, por essa linha de escrita, Artaud contra a metafísica é Artaud inteiramente capturado nela enquanto derridianamente definida como o horror dessa heterogeneidade necessária.
        Agora, inversamente, é Artaud quem desnuda a diferença no entre-dois do que ele faz defrontar, a partir do que ele quer valorizar como contrário de toda subordinação metafísica, texto-logo-cêntrica, clássico-ocidentalista, etc.
          Sem precipitação, podemos entender esse trecho não assim, mas sugerindo que Artaud não resgata a diferência, mesmo que as modificações dela se digam que “se desnudaram” em Artaud ao longo do percurso do artigo – pois Artaud apenas teria servido o sintoma, o horror metafísico da materialidade real, a da letra, antes da vontade saber-se como tal, ainda que nesse domínio da anterioridade é que ele, Artaud, pretendera estar se pondo como na pura fisicalidade. Mas isso que se desnudou, em todo caso, “só se pode pensar como tal para lá da metafísica, em direção à Diferença – ou à Duplicidade – de que fala Heidegger”.
            Porém como pode ser assim, se a primeira proximidade Artaud-Heidegger era a de uma mesma recusa “gramática”? Aqui, inversamente, Derrida se estende como intérprete de Heidegger, notando que a aparência do procedimento heideggeriano em torno da a-letheia ou verdade-revelação grega, suposta anterior à metafísica assim como Artaud supunha o Oriente e o aborígine, isto é, em torno da confusa ambiguidade do encobrir-descobrir que seria o elemento de uma verdade não-universal, porque visão de mundo que se sabe limite, borda, do possível, é tão somente aparência: de uma cumplicidade universal com o furtivo, com o sopro-roubo, etc., uma vez que idealização da palavra. Porém, o contrário do que aparece é destruição dessa aparência, a partir da revelação que Heidegger realmente expressa, do que possibilita o furtivo. Ele não se coloca no elemento do furtivo, mas – e então vemos em que o que era antes desprezo da letra, é agora reconsideração dela – no da palavra enquanto possibilidade, também, de sua metafísica.
           Mas não está autorizado, desde aí, afirmar que Derrida está deduzindo que Heidegger completou este movimento rumo à necessidade da Escrita, da letra, que ele tornou necessário ao retroceder à interrogação sobre a economia da palavra. Que ele pensou o que fez pensar. Eis a questão.
           Heidegger não pensou, certamente, a destruição, o Aubau, da metafísica, nos termos simplistas de superação: “ se a ‘destruição’ da história da metafísica não for, no sentido rigoroso em que o entende Heidegger, uma simples superação...” - mas, o que isto quer expressar? Se for como propomos, e para Derrida, Heidegger não entende “destruição” como “superação”, em todo caso “nós”, afirma o texto, já podemos situar um nem-dentro-nem-fora “dessa história”, situamento em que nos colocamos, para interrogar “sobre o que liga o conceito da loucura ao conceito da metafísica: a que Artaud destrói e a que se empenha ainda em construir, ou em preservar no mesmo movimento”.
         Aqui a referência do destruir é sem dúvida a metafísica, a tradição de que fala em seguida, heideggerianamente, o texto, como tradição da presença a si, da unidade, da identidade, do próprio, etc., porém se assim Artaud realizou a metafísica, instalando-a no lugar próprio, ele por outro lado, levou à consciência a necessidade da lei da diferença, e, ainda, ele permaneceu no limite em que Derrida tenta lê-lo, posto que essa realização que aparece no trecho sem que saibamos bem vinda de onde, é para logo a seguir ser denunciada como o que permanece na estrutura do que ela mesma denuncia.
          Sorte de todos os discursos destruidores “que devem habitar as estruturas por eles derrubadas” (p. 288) e nelas (re)-enxertando um desejo de presença plena, de realização, pois, de não-diferença: ao mesmo tempo morte/vida, segundo Derrida, uma vez que a fixidez contra o devir - ainda que fosse de uma lei do devir? - seria ao mesmo que “o” gozo, “o” estancamento de todo outro-desejo. Derrida a isso ajunta – eis o estado da questão. Eis como ela foi posta, esboçada, e cada um dos pontos do percurso em que ela veio assim a se construir obedece à lei pela qual a subtração de qualquer deles implica na posição ao contrário do percurso a si. Mas isso, esse risco, também é assim quanto à transgressão da metafísica, que pode sempre voltar-se contra o transgressor. A questão é então, propomos, a desse risco da heterogeneidade do sopro, posto que, enquanto protegida por um campo em que viceja, a palavra não desdobra o que lhe acontece se for de muito longe interpelada pelo que ao campo, ao contexto, desborda, a saber, um corpo, uma carne (Artaud).
            Esse movimento, porém, podemos ajuntar ao artigo que nesse ponto se completa, é da interlocução mesma em que a letra deveria, ao contrário, propriamente jazer. Deveria jazer na operosidade do campo, mas na verdade foi trazida a ele por algo que o transcende. Não sabemos o que pode um texto.
                                    ===========
 
                                    (escrito em 2015)
        ==========