Sesc SP

Matérias da edição

Postado em

Viés democrático

Ilustrações: Luyse Costa/Freepik
Ilustrações: Luyse Costa/Freepik

Quais perspectivas teóricas e possibilidades metodológicas estão sendo traçadas nos estudos sobre as democracias contemporâneas? Em Mosaico de olhares: pesquisa e futuro no cinquentenário do Cebrap (2021), lançado pelas Edições Sesc São Paulo, pesquisadores e pesquisadoras refletem a partir de diferentes campos de atuação sobre assuntos como políticas públicas, mobilidade urbana, cultura, tecnologia e inovação. Organizado por Mauricio Fiore e Miriam Dolhnikoff, o livro reúne 19 artigos que repercutem os atuais desafios da pesquisa acadêmica sem apartá-los de seus desdobramentos políticos, traço marcante da história de intervenção pública do Centro Brasileiro de Análise e Planejamento (Cebrap), um dos mais tradicionais centros de pesquisa em humanidades do país. “Reunindo textos de intelectuais que procuram interpretar o momento atual, por vezes questionando explicações recorrentes e gastas, o presente volume nos convoca a interferir nos rumos dos processos em curso e oferece ferramentas para a construção de um futuro mais inclusivo”, escreveu Danilo Santos de Miranda, diretor do Sesc São Paulo, na apresentação da publicação. Neste Em Pauta, leia excertos dos artigos O novo ciclo tecnológico, a inteligência artificial e o Brasil, escrito por Glauco Arbix, professor titular do Departamento de Sociologia da Universidade de São Paulo (USP), e Tecnologia, dados e novas possibilidades para a pesquisa social, de Carlos Torres Freire, diretor de metodologia, produção e análise de dados da Fundação Seade (Sistema Estadual de Análise de Dados).


 

Tecnologia, dados e novas possibilidades para a pesquisa social

Por Carlos Torres Freire

 

Anos atrás, eu estava em um curso sobre Big Data e métodos de pesquisa, participando de uma dinâmica de grupo cujo objetivo era encontrar soluções para problemas públicos utilizando grandes conjuntos de dados, quando um colega da equipe falou: “Vocês das ciências sociais são bons em fazer as perguntas!”. Ele vinha da ciência da computação. Aquilo ficou na minha cabeça e alimentou ideias que eu já tinha sobre o equívoco da separação entre as disciplinas, sobre a necessidade de derrubar certos muros na produção de conhecimento. Isso se torna ainda mais importante em um contexto no qual transformações tecnológicas e sociais estão completamente articuladas. A necessidade de aprendermos com os nossos colegas da ciência da computação, e também de outras áreas, é urgente.

Este artigo trata justamente do ponto de encontro entre mudanças tecnológicas, novos conjuntos de dados e possibilidades inéditas de pesquisa social. E contempla uma breve introdução ao fenômeno Big Data e suas implicações para campos de pesquisa como as ciências sociais e as políticas públicas.

O objetivo é apresentar um panorama sobre a tríade tecnologia, dados e pesquisa social com uma organização em quatro partes. Na primeira, introduzo o fenômeno: definições e características de Big Data; o processo de datafication e as fontes digitais de dados; e novas capacidades tecnológicas e analíticas. Na segunda parte, apresento algumas estratégias de pesquisa social com base nas novas possibilidades. Na terceira, organizo aplicações por tipo de dados, como localização, palavras e buscas na internet. Por fim, passo pelos limites e desafios desses usos, como validade dos dados, privacidade e transparência.

Evidentemente, um texto de introdução não contempla todos os tópicos atuais sobre o tema. Primeiramente, decidi limitar a discussão a Big Data, em vez de ampliar para inteligência artificial. Em segundo lugar, espero que cada tópico deste texto e as referências citadas estimulem a abrir uma nova porta, já que não serão devidamente detalhados. 

Por fim, há temas que nem serão discutidos aqui, mas que foram objeto de trabalhos de muita qualidade: em política, o uso de fake news e algoritmos para influenciar eleições; o controle da vida por tecnologias combinadas à neurociência nas redes sociais ou por modelos matemáticos que informam decisões sobre emprego e finanças; empresas e o capitalismo de vigilância; e todo ferramental acionado para acompanharmos a evolução da pandemia da Covid-19, com inúmeros painéis de dados pelo mundo e novas técnicas para auxiliar os tradicionais modelos epidemiológicos.

 

O que é Big Data

Na literatura sobre o tema, há um entendimento de Big Data como fenômeno (no singular, “Big Data is”) e não só como grandes bancos de dados, como material bruto (no plural, “Big Data are”). Como diz King: “Big Data is not actually about the data”. Há uma produção massiva de dados, sim, mas o que realmente é transformador é a junção disso a uma transformação na capacidade analítica. Ou seja, o que fazer com os dados para melhor compreender a vida social e informar políticas públicas.

Ao longo da primeira década dos anos 2000, disseminou-se a ideia dos “3Vs” de Big Data: velocidade, variedade e volume. A definição é útil e inclui dois elementos essenciais: mais dados disponíveis e maior capacidade de processamento. Salganik lembra que autores mais entusiasmados adicionam outros “Vs”, como valor e veracidade, enquanto críticos adicionam vago e vazio. Também na linha das palavras e iniciais, Pentland define Big Data a partir de “3Cs”: crumbs (rastros digitais), capacities (capacidade técnica) e community (atores).

Para Mayer-Schönberger e Cukier, que escreveram um dos principais livros sobre o tema, “Big Data representa três mudanças no modo como analisamos informação e que transformam como compreendemos e organizamos a sociedade”. A primeira é a possibilidade de usar muito mais dados, com mais amplitude e mais granularidade, ou seja, ir além do designed-data, das amostras preparadas previamente para responder a um conjunto de perguntas e da escassez de informação da era analógica. A segunda é lidar com dados mais “sujos”, menos exatos, variados em qualidade e espalhados em servidores pelo mundo. E uma terceira mudança mais complexa, de mentalidade, seria “se afastar da busca por causalidade e descobrir padrões e correlações que levam a novos insights”, com consequências na forma de produzir conhecimento.

Em direção similar, porém mais crítica, Boyd e Crawford apontam que “Big Data é menos sobre dados em grande quantidade do que sobre a capacidade de pesquisa, de agregar e cruzar grande conjuntos de dados”. Ou seja, a capacidade analítica muda com novos dados e novas técnicas para a compreensão da vida social, mas isso não é panaceia e pode ter consequências negativas – que serão tratadas mais à frente. As autoras definem Big Data como um fenômeno que se baseia na interconexão de tecnologia (capacidade computacional e algoritmos), análise (“identificação de padrões em grandes conjuntos de dados”) e mitologia (“crença de que muitos dados oferecem uma forma superior de conhecimento e inteligência que gera insights nunca antes possíveis, com uma aura de verdade, objetividade e precisão”). 

De modo a tentar organizar o debate, De Mauro e outros colaboradores buscam uma definição consensual para Big Data a partir de uma revisão de definições na literatura e também de um levantamento de 1.437 resumos de artigos científicos publicados sobre o tema. Como os autores dizem, consensual, nesse caso, refere-se ao reconhecimento da centralidade de alguns atributos recorrentes que definem a essência do que Big Data significa para acadêmicos e practitioners. Chegam no seguinte: “Big Data representa ativos de informação caracterizados por grande volume, velocidade e variedade que requerem tecnologia e métodos analíticos específicos para sua transformação em valor para a sociedade”.

Enfim, uma consequência da passagem da era analógica para a digital em termos de pesquisa é que mudanças tecnológicas permitem coletar, armazenar, processar, analisar e visualizar dados de formas inéditas. Trata-se de uma oportunidade de combinar o conhecimento acumulado em mais de 100 anos de pesquisa social com novas possibilidades no presente e, principalmente, no futuro.

 

Fetiche dos dados

É necessário tomar cuidado com o “fetiche dos dados”, que pode levar à incapacidade do olhar crítico para o procedimento de coleta, processamento e análise, como ressaltam Schonberger e Cukier. Boyd e Crawford também criticam o entusiasmo exagerado em relação ao fenômeno Big Data e salientam que é necessário ter cuidado ao considerar que o grande volume de dados e a busca por padrões é uma panaceia analítica.

Sem dúvida, o surgimento do Big Data permite a quantificação de muitos fenômenos sociais; todavia, é um erro assumir isso como uma saída automática para a objetividade. A organização da informação, com a eleição de atributos e variáveis, é um processo subjetivo. Sempre haverá limites e conflitos em pesquisa social. Ou seja, continua sendo necessário pensar boas questões de pesquisa, operacionalizar os conceitos de forma precisa, definir desenhos metodológicos adequados, escolher estratégias analíticas e cuidar dos inúmeros vieses no tratamento dos dados e resultados.

Nesse sentido, é fundamental a ampliação das capacidades por parte dos atores envolvidos em pesquisa. Isso porque há mais chance de erros, em virtude da maior quantidade de dados e da mistura de diferentes fontes. Também é importante atentar para problemas na extração dos dados e inconsistências no processamento. Finalmente, é necessário entender bem os modelos utilizados nas análises.

Na academia, cientistas sociais e de dados cada vez mais têm trabalhado conjuntamente, compartilhando bases de conhecimento. As agências de estatísticas oficiais estão abrindo mais espaço para se aproveitar de Big Data na produção de indicadores, e governos têm amplo espaço para aprender e se aproveitar dos avanços para as políticas públicas. A sociedade civil tem criado diversos projetos e ampliado o controle social. E o setor privado, que saiu na frente, continua expandindo as possibilidades de atuação. Enfim, a agenda está em ebulição.

Com os devidos cuidados, há uma oportunidade de articular as novidades tecnológicas e analíticas com o conhecimento acumulado das ciências sociais e sua capacidade de elaborar boas perguntas. Isso permitirá o aperfeiçoamento do modo como observamos e analisamos os fenômenos sociais e, consequentemente, como informamos e avaliamos as políticas públicas.

 

Carlos Torres Freire, Doutor em sociologia pela Universidade de São Paulo (USP), é diretor de metodologia, produção e análise de dados da Fundação Seade. Foi diretor científico e pesquisador do Cebrap e consultor em instituições públicas e privadas, especialmente em projetos sobre políticas públicas, ciência, tecnologia e inovação e mobilidade urbana. Também é professor em cursos de métodos e técnicas de pesquisa.




 

O novo ciclo tecnológico, a inteligência artificial e o Brasil

Por Glauco Arbix

 

O IMPACTO CIENTÍFICO DESSE EXERCÍCIO DE BIG SCIENCE REPERCUTIU NA FÍSICA, NA QUÍMICA, NA BIOLOGIA E NAS ENGENHARIAS

Ciência e tecnologia, atividades essencialmente movidas pela dúvida, curiosidade e liberdade de pesquisa, além de incipientes e sem estrutura profissional, remavam contra a corrente. As universidades que eram as principais fontes de formação de profissionais encontravam-se sitiadas pelo governo e se debatiam na busca infrutífera da autonomia e da dignidade perdidas. Nessas circunstâncias, a produção de conhecimento novo ligava-se ao esforço individual de pequenos grupos e raras instituições.

A articulação de um sistema robusto de pós-graduação somente começou a funcionar quando o governo passou a reconhecer que não poderia ignorar a universidade se quisesse desenvolver o país, o que aconteceu a duras penas e com alto preço, pago nas moedas da opressão, do corte de verbas e da cassação de professores. O esforço para a elaboração do Programa Estratégico de Desenvolvimento, em 1967, coordenado por Hélio Beltrão, Delfim Netto e João Paulo dos Reis Velloso, deu visibilidade para a extrema carência de pessoal capaz de sustentar os projetos de infraestrutura e indústria que o governo almejava. 

Iniciativas para equacionar esse problema central incluíram até mesmo ensaios para uma reaproximação com a universidade, uma vez que as sequelas das mobilizações de 1968 e a resistência de grupos armados à ditadura dificultavam qualquer diálogo. Pelo menos aos olhos e ouvidos do governo. A preocupação com recursos humanos era a chave para que os Planos Nacionais de Desenvolvimento (PNDs), que seriam executados nos anos 1970, mostrassem viabilidade. 

A fundação de centros de pesquisa avançada de estatais como a Petrobras, a Telebras e a Vale do Rio Doce obedeceram a essa lógica, a mesma que orientou o governo a liberar o nascimento da Embrapa. Até mesmo um pequeno-grande feito da engenharia brasileira levou ao lançamento, com êxito, do primeiro foguete totalmente projetado e construído no Brasil, o Sonda II, desenvolvido para experimentos na faixa de cinquenta a cem quilômetros de altitude. Com imprescindível apoio da canadense Bristol Aerospace, o programa espacial procurava associar o país ao seleto clube que já expandia as fronteiras do planeta. 

Desafiados pelo pioneirismo soviético com suas sondas, satélites artificiais e o lançamento do primeiro humano ao espaço, Yuri Gagarin, os astronautas Neil Armstrong e Edwin Aldrin caminharam pela Lua no dia 20 de julho de 1969. Era o contraponto americano à então URSS e a resposta ao desafio colocado dez anos antes pelo então presidente dos Estados Unidos, John F. Kennedy, para tentar reequilibrar a geopolítica mundial.

O impacto científico desse exercício de big science repercutiu na física, na química, na biologia e nas engenharias. Ainda que muitas vezes marcados pelo timbre da política, a inventividade humana se manifestava nos mais diferentes domínios: nos supercomputadores, sistemas de processamento, em microprocessadores, satélites, robôs, na engenharia genética, no DNA recombinante, para citar alguns dos avanços de C&T que funcionariam como plataformas para o século 21. O Brasil procurava diminuir gradativamente a distância dessas novas realidades com alguns passos voltados para a construção de um verdadeiro sistema de C&T, ainda que o contraste com a capacidade instalada nas economias avançadas se mostrasse muito grande.

O Cebrap foi criado em abril de 1969, em um berço nada confortável, dado o déficit democrático que marcava a sociedade. Meses depois, em outubro, num evento à época pouco notado, uma equipe de pesquisadores da Universidade da Califórnia, em Los Angeles (UCLA), conseguia conectar dois computadores e enviar uma pequena mensagem ao Instituto de Pesquisa da Universidade de Stanford (Califórnia, EUA).

Não era ainda uma rede, e estava longe de ser a malha global como a conhecemos hoje. Era apenas uma semente que tentava germinar. Tecnicamente, era parte de um pequeno sistema de comunicação entre computadores da Agência de Projetos de Pesquisa Avançada (Advanced Research and Projects Agency – Arpa), ligada ao Departamento de Defesa dos Estados Unidos (DoD). A Arpanet, como foi chamada, estava voltada para a comunicação militar, mas veio a se firmar, de fato, como a principal precursora da atual internet.

A Arpanet desbravou um novo caminho para a evolução das tecnologias de informação e comunicação. E, com isso, mudou o metabolismo das economias, o pulso da cultura e da política, assim como toda a vida em sociedade. A era da conectividade ganhava enorme impulso. E os 50 anos seguintes não seriam mais os mesmos, para o bem e para o mal.

 

O NASCIMENTO DO DIGITAL

É certo que o experimento na Califórnia, há 50 anos, descortinou um novo horizonte para povos e países, ainda que ninguém pudesse prever todos os seus desdobramentos. Mas não é menos verdadeiro que ampliou o gap que separava os países emergentes dos avançados, tornando a busca pelo desenvolvimento novamente mais desafiadora – menos pelas oportunidades que abriu e mais pelo despreparo do país para as mudanças que se anunciavam, cujas consequências se apresentaram rapidamente.

Os objetivos definidos pelos três PNDs, implementados entre 1972 e 1979, perderiam consistência e seriam drenados de sua atualidade. O primeiro PND, alinhado com o Programa de Metas e Bases Para a Ação do Governo (1970), quando o presidente era o general Emílio Garrastazu Médici, pretendia posicionar o Brasil entre as nações desenvolvidas em uma geração. O objetivo era duplicar a renda per capita e promover o crescimento do PIB a uma taxa anual entre 8% e 10% e, com isso, esperava expandir o emprego com baixa inflação. 

O segundo PND, o mais bem-sucedido, alterou as métricas do primeiro: queria elevar a renda a mais de mil dólares e o PIB a cem bilhões de dólares em 1977. Seus objetivos básicos voltavam-se para as respostas à crise do petróleo e o fortalecimento dos setores de bens de capital, de energia, eletrônica pesada e infraestrutura. Foi o que mais avançou. O terceiro PND, que previa a integração do Brasil à economia mundial e a conquista de novos mercados, foi pouco mais que um plano de baixa efetividade.

As metas sociais definidas pelos PNDs jamais foram alcançadas. A construção do Brasil como uma sociedade industrial moderna e competitiva mostrou-se distante do novo curso que se desenhava. A indústria prevista por eles mostrou-se descolada dos avanços mundiais, sem conexão com as novas tendências de produção e de serviços que se espalhavam pelas economias. As políticas de substituição das importações e o protecionismo como diretriz de Estado, que estavam na base dos PNDs, não encontravam espaço de diálogo com o novo ciclo tecnológico em pleno desenvolvimento.

Na verdade, os PNDs foram concebidos como parte de uma estratégia nacional que projetava o futuro como desdobramento do passado. O governo militar, de fato, não conseguiu acompanhar o novo curso nascente e as fortes mudanças que começavam a sacudir as economias pelo mundo afora. O Brasil perdeu mais uma oportunidade de dar um salto e ficar na companhia de países como Coreia, Singapura e Taiwan. No final dos anos 1970, após os PNDs, o país vivia o esgotamento do ciclo militar, com a perda de dinamismo da economia, inflação em alta e crise de energia, base poderosa para o florescimento da política guiada por anseios democráticos. 

Nos domínios da C&T, e seus esperados impactos na economia e na sociedade, os resultados eram frustrantes. O atraso havia se ampliado. A grande lição, no entanto, que apontava para um esforço concentrado na educação, em C&T e no estímulo a uma maior conexão da economia com o mundo, viria apenas a conta-gotas. Esse é um dos dramas de um país que resiste em aprender com sua própria história.


 

GLAUCO ARBIX é Professor titular do Departamento de Sociologia da Universidade de São Paulo (USP), pesquisador do Cebrap e coordenador da área de Humanidades do Center for Artificial Intelligence (USP-Fapesp-IBM). Foi presidente da Financiadora de Estudos e Projetos (Finep) e do Instituto de Pesquisas Econômicas Aplicadas (IPEA) e Coordenador Geral do Núcleo de Assuntos Estratégicos da Presidência da República.

 

 

revistae | instagram