Episódio #004, "Burrice natural"

Por trás de todo o hype sobre "inteligência artificial", pra variar, há problemas que merecem ser escrutinados na tentativa de evadir, mais uma vez, a maldição que o termo carrega.

Opa, muito pesado? Vamos chegar lá, first things first.

Segundo Noam Chomsky (ou, como nosso host Balta prefere, Cho-cho), há na real dois conceitos de inteligência artificial.

O primeiro, linguístico, domínio que Cho-cho praticamente reinventou antes de chegar aos 40 anos, se preocupa em utilizar teorias computacionais—por falta de outras mais competentes, para emular o que acontece dentro da cabeça, com especial atenção à linguagem, assumindo que dessa representação seja possível pelo menos inferir a natureza da inteligência humana ou a inteligência natural. Isto implica, em última instância, em resolver o solene "binding problem", no sentido de identificar que tipo de coisa resolveria o vácuo lógico entre a atividade eletroquímica do cérebro e a capacidade linguística da mente, também conhecido com NCC (Neuronal Correlates of Consciousness). Entretanto, como a ciência não tem a mais remota ideia de como sequer se aproximar da questão, nada mais intelectualmente honesto que usar o termo "inteligência artificial" para se referir à legítima tentativa de representar a natureza através das ciências cognitivas.

Agora, vamos chamar o segundo conceito de tecnológico por se preocupar em desenvolver dispositivos que sugerem reproduzir ou, no pior dos casos, superar, a inteligência natural a partir da engenharia, a despeito das dificuldades impostas pelo conceito linguístico. Fundamentos como sempre à parte, foi esse o jogo comercial na década de 50, quando o termo foi cunhado sob grande euforia para em seguida virar ficção; foi assim também na década de 80, quando o movimento foi brevemente ressuscitado sob auspícios japoneses, novamente em vão; e tem sido assim no corrente levante e seu frenesi que encontrou na "singularidade" máxima expressão, sustentada por resultados pífios (mediante o investimento realizado) na robótica e no processamento da linguagem natural e, claro, por muita espuma estatística associada a trending topics como machine learning, neural networks, big data e daí por diante.

Ok, com os conceitos linguístico e tecnológico nos seus devidos lugares, estamos novamente prontos pra cagar regra:

Regra 1. Como entender a inteligência natural está além das faculdades da nossa espécie, programas de computador não 'pensam' e não 'aprendem' como nós, logo não são 'inteligentes'. O erro raso é terminológico. Foram, sim, criados por humanos para manipular símbolos e gravar dados, mas não são e jamais serão capazes de tomar decisões de acordo com a ocasião como nós; ou de fazer o que eu ou você estamos fazendo agora. Justo então falar em capacidade de processamento, associação e por aí vai, mas apregoar inteligência literal é burrice natural.

Regra 2. Quando a promessa de predição entra em cena, o problema fica ainda mais grave. É como dizer que, a partir da massa de dados X sobre o passado, em condições normais, há Y% de chance de Z acontecer. Grosso modo, temos a velha pesquisa quanti anabolizada, tão útil quanto poste pra bêbado: bom para apoiar, mas iluminar mesmo é burrice natural.

Regra 3. Mas, vamos ser pragmáticos e sucumbir à presença da estatística anabolizada em nossas vidas, com dispositivos interligados executando lindamente tarefas binárias para nos vender, agora via interface, um tipo de inteligência que fomenta a preguiça intelectual ao "descobrir" nossos gostos, "antecipar" nossos desejos e limitar nosso mundo às possibilidades oferecidas pela burrice natural.

Então é isso, já sabendo que vem chumbo grosso tanto dos nossos residentes, quanto dos nosso ouvintes, todos prontos para mais um debate que na pior das hipóteses fomenta o livre arbítrio e assim promove a única e inequívoca inteligência.

Nos "vemos" no Podcast.

Author image

Sobre redação Supernova

sempre um artigo autoral produzido pelos residentes do Supernova.
  • Florianópolis