SciELO - Scientific Electronic Library Online

 
vol.4 issue10The Role of Human Curation at the Age of AlgorithmsEgomuseum: Activists Authors/Artists on Instagram author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Journal of Digital Media and Interaction

Print version ISSN 2184-3120

JDMI vol.4 no.10 Aveiro June 2021  Epub July 29, 2021

https://doi.org/10.34624/jdmi.v4i10.24568 

Articles

Da ferramenta ao intelecto algorítmico: sobreviver entre dilemas digitais

From tool to algorithmic intellect: surviving between digital dilemmas

1 Centro de Estudos de Comunicação e Sociedade, Portugal


Resumo

A operacionalização de Big Data e de algoritmos tem vindo a dominar o panorama digital atual (Boyd & Crawford, 2012; Cukier & Myer-Schonberger, 2013; Coté, Gerbaudo & Pybus, 2016). O modo, a velocidade, a variedade e a quantidade de dados operacionalizados por algoritmos têm interferido nos modos de pensar, sentir e agir do sujeito contemporâneo (Jenkins et al, 2014; Helbing, 2015; Kitchin, 2017). Os efeitos nem sempre são os mais positivos, apesar do aumento, factual, de informação e conhecimento gerados. Um dos lados mais negativos é, para Tristan Harris, ex-chefe de ética da Google, a clara ausência de um “design ético” no modo como operam as empresas que gerem plataformas digitais (Patino, 2019). A captura da atenção, a manipulação de interesses e opiniões e a modelação comportamental que tem sido encetada pelas empresas digitais têm em vista resultados fundamentalmente económicos, mas também políticos. Para Lanier (2018), esta dinâmica está a gerar um descontrolo global sem precedentes na comunicação, e com impactos imprevisíveis.

Este artigo visa refletir sobre o modo como os dois algoritmos em particular (PageRank e EdgeRank) ultrapassaram a função de ferramenta. Em nosso entender, rumaram em direção à função de intelecto contingente, tendendo para a reprodução de um mundo a partir de uma lógica numérica, quer dizer, partindo do princípio de que vence aquele que mais patrocina, que mais consegue engajar e que mais consegue crescer quantitativamente. Em suma, que mais consegue capturar a atenção dos sujeitos.

Palavras-chave: algoritmos; atenção; vigilância; ferramentas; intelectos

Abstract

The operationalization of Big Data and algorithms has dominated the current digital landscape (Boyd & Crawford, 2012; Cukier & Myer-Schonberger, 2013; Coté, Gerbaudo & Pybus, 2016). The mode, velocity, variety and amount of data operated by algorithms have interfered with the contemporary subject's in the ways of thinking, feeling and acting (Jenkins et al, 2014; Helbing, 2015; Kitchin, 2014). The effects are not always the most positive, despite the factual increase in information and knowledge generated. One of the most negative sides is, for Tristan Harris, former head of ethics at Google, the clear absence of an “ethical design” in the way that companies that manage digital platforms operate (Patino, 2019). The capture of attention, the manipulation of interests and opinions and the behavioral modeling that has been initiated by digital companies aim at fundamentally economic, but also political, results. For Lanier (2018), this dynamic is generating an unprecedented global lack of control in communication, and with unpredictable impacts.

This article aims to reflect on how two algorithms (PageRank and EdgeRank) overtook the tool function. In our opinion, they moved towards the function of contingent intellect, tending towards the reproduction of a world based on a numerical logic, that is, assuming that the one who wins the most sponsors, who can most engage and who can grow the most wins quantitatively. In short, it is more able to capture the attention of the subjects.

Keywords: algorithms; attention; surveillance; tools; intellects

1. Introdução

Da política à opinião, da ciência à saúde, dos sistemas bancários à produção de notícias, a atualidade está marcada pela força impressa pelas redes digitais. Tal dinâmica, aparentemente inofensiva, gera um dilema: as plataformas digitais, sendo privadas, apoderam-se de informação de atividade individual e relacional. A questão é: para onde vai toda a informação registada e o que é feito com ela?

Essa grande quantidade de dados gerados, registados, indexados e operacionalizados é habitualmente designada de Big Data. As empresas digitais especializaram-se em gerir grandes volumes de informação, fazendo desses os seus maiores ativos (Boyd & Crawford, 2012; Cukier & Myer-Schonberger, 2013). Através de programas e algoritmos, empresas digitais conseguem, por um lado, aumentar a presença e a interação dos sujeitos no seu interior, e por outro aumentar os lucros através da garantia que fornecem às empresas que publicitam, provando-lhes que uma campanha publicitária no seu sistema permite obter um aumento no consumo dos seus produtos. Esta dinâmica cria novas práticas, solidifica velhos hábitos e, em muitos casos, leva ao confronto de convenções sociais estabelecidas (Coté, Gerbaudo & Pybus, 2016).

Para Vladimir Safatle, o exemplo das Fake News em ambientes digitais representa o culminar do desafio às convenções sociais, sobretudo entre aquelas que estão sob o monopólio dos Estados. No seu entender, as Fake News refletem respostas de “um povo profundamente violentado pelo seu próprio Estado, que claro, está vinculado a certos setores economicamente hegemônicos”. Estas respostas geram “satisfação, e esse é o elemento decisivo para a gente parar de imaginar que elas são estúpidas de achar que a Terra é plana” (Veloso, 2020, s.p.).

Esta intuição de Safatle, a que pode ser acrescentado o exemplo das respostas crescentemente extremas e polarizadoras nas publicações de notícias nas redes sociais, revela um modo de estar niilista, simultaneamente positivo e negativo (Costa, 2020a). Positivo ao colocar liberdade e responsabilidade não mais garantidas, nem sufocadas ou controladas. Negativo no fazer prevalecer traços como os do declínio, do ressentimento, da incapacidade de avançar, da paralisia, do livre arbítrio, algo já vaticinado por Vattimo (1987) aquando da sua reflexão sobre dinâmicas sociais de profunda mudança. Este niilismo digital desemboca, em nosso entender, na problemática da legitimidade social. Quando uma empresa como a Google alcança forte legitimidade em aspetos até então inexistentes (e.g. tema da saúde), percebe-se como o ambiente digital influencia e agita o xadrez social da legitimidade (Helbing, 2015). A virtualização do mundo acarreta não apenas mudanças de práticas, usos e costumes, mas também em dimensões estruturais, quer dizer, de legitimidade (Costa, Sousa, Capoano e Paganotti, 2020).

A legitimidade das grandes empresas digitais, sobretudo motivadas pelos seus astutos e dinâmicos algoritmos, atingiu, para além de grandes quantidades de utilizadores, níveis que superam as dos próprios Estados. A questão da legitimidade, numa comunidade humana cada vez mais em modo online, é decisiva, pois dessa dinâmica contingente de interferências e legitimidades na transmissão social e cultural derivam muitos dos gatilhos comportamentais da contemporaneidade (Costa, 2020a; Patino, 2019).

Com isto, outras questões se levantam: até onde podemos avançar sob o efeito das legitimidades conferidas pela eficácia dos algoritmos? Giddens (2018) lança um aviso incisivo: “devemos garantir que a nova onda de inovação impulsionada pela Inteligência Artificial seja tratada de uma forma mais proativa, sem que exista a permissão para que essa se precipite nas nossas vidas” (Giddens, 2018, p.7). O facto de os média digitais transformarem públicos não apenas em consumidores, mas, sobretudo, em autores, criadores e reprodutores de valores e significados, expande a sua legitimidade, ampliando simultaneamente a “cultura da conexão” (Jenkins et al, 2015).

Porém, numa perspetiva antropológica, há algo que supera as dimensões da conexão e da legitimidade. Invocando Gabriel Tarde, que no já longínquo final do século XIX se referia às grandes interferências das transmissões sociais, existem duas variáveis a ter em conta: as crenças e os desejos colocados nas redes sociais em geral, e hoje nas redes digitais em particular, onde “uns são variedades ou veleidades de ensinamento, outros são variedades ou veleidades de comando” (Tarde, 1978, p.8). Para este, “nenhuma interferência mental iguala a de um desejo e de uma crença” (Tarde, 1978, p. 50). Quando um desejo colide com uma crença que persuade, a “persuasão aumenta a minha ambição, que contribui, de resto, para me deixar persuadir”. A crença “aviva um desejo, tanto porque ela faz julgar mais realizável o objeto deste, como porque ela é a aprovação dele” (Tarde, 1978, p. 50).

Nesta linha de pensamento, Deleuze & Guattari (2004) sublinhavam estes dois elementos: “existe apenas o desejo e o social, e nada mais” (Deleuze & Guattari, 2004, p.33). Ambos entendiam o social como a ligação, a associação e a transmissão, que não abdica das crenças para se cumprir; e o desejo como o outro vértice, veleidade ou variedade de comando: “a produção social é simplesmente a produção desejante em determinadas condições” (Deleuze & Guattari, 2004, p.33).

Numa perspetiva aproximada, Christakis e Fowler (2010) analisam “o poder da conexão” tendo em conta o modo como desejos e crenças sociais funcionam como germes da influência. Tanto em redes tradicionais, como nas atuais redes digitais plataformizadas e algoritmizadas, “a influência social não termina com as pessoas que conhecemos. Se influenciarmos nossos amigos, e eles influenciarem seus amigos, nossas ações podem, então, potencialmente influenciar as pessoas que não conhecemos” (Christakis e Fowler, 2010, p.6). Nesta perspetiva, onde se situa também a teoria do ator-rede, entender pessoas e dinâmicas sociais implica entender laços e vínculos de “atores humanos e não humanos”, associações que se estabelecem no decurso da ação contingente (Latour, 2012, p. 97).

Assim, e retomando as preocupações levantadas por Giddens (2018), na interseção com o universo das redes digitais e com a importância de evitar a precipitação da inteligência artificial e do machine learning1 nas nossas vidas, na medida em que estas forças se interligam com os laços que vamos criando, importa explorar a perspetiva que foca a contingência como o momento da expressão das possibilidades, dos agrupamentos que agora existem ou que podem vir a existir, dos acessos e das conexões que hoje estão permitidos. Tal deve implicar uma ética capaz de evitar ou limitar estes excessos nas tentativas de dominação alheias. Tendo em conta estas problemáticas, e ao focar alguns dilemas inscritos na sociotécnica digital (Latour, 2012), este artigo pretende refletir sobre o modo como os algoritmos transitaram da função de ferramenta para a função de intelecto, bem como sobre a força do behaviorismo (Watson, 1913) e do pós-behaviorismo (Turing, 2007) nos usos e costumes nas redes, reproduzindo um mundo a partir de lógicas numéricas e binárias, quer dizer, onde prevalecem as figuras do mais patrocinado, do mais engajado, do que mais cresce ou daquele que mais captura a atenção.

2. Algoritmos persuasivos

Em teoria, Gabriel Tarde, Deleuze e Guatarri e os cientistas sociais que preconizam a teoria do ator-rede entenderam perfeitamente a dinâmica entre crenças e desejos no seio de redes humanas. Porém, na prática estas dinâmicas foram entendidas com mestria pelas empresas produtoras de redes digitais através de programas, programadores e algoritmos (Boyd & Crawford, 2012; Cukier & Myer-Schonberger, 2013; Coté, Gerbaudo & Pybus, 2016).

Em sentido amplo, a lógica behaviorista destas empresas continua a resultar. O impulso do machine learning e da AI em sistemas sociotécnicos povoados por crenças e desejos fez dos humanos “máquinas desejantes” (Deleuze e Guattari, 2004, pp.11-13), de onde surge uma produção social possibilitada por condições contingentes que está, mais do que nunca, conectada a máquinas munidas de “corpos sem órgãos” - como são os “algoritmos persuasivos”. O que estas empresas, programadores e algoritmos fazem, sobretudo a partir de Silicon Valley, é, fundamentalmente, a captura da atenção dos sujeitos (Patino, 2019). Tanto na dimensão “social” como na dimensão do “desejo”.

Uma observação atenta demonstra como é que as técnicas implementadas para capturar a atenção dos sujeitos atuam exatamente nestas duas dimensões. As redes, tendo cariz relacional e associativo, oferecem o que as necessidades sociais do sujeito procuram - a interação, o envolvimento, o reflexo, a representação, a opinião, a aprovação social, que se dá comummente nas redes digitais (Bauman, 2006). As interações, permitindo cumprir desejos, cumprem a dimensão subjetiva desejada - o ego, a líbido, a predação, a sensação de domínio, a posse, o consumo. Hoje, empresas detentoras de “corpos sem órgãos” sabem que um designer de aplicações astuto, enquanto programador de opiniões que busca interações e desejos, pode decidir parte da vida de dois mil milhões de pessoas (Lanier, 2010).

O facto de os Big Data, indexados em e operacionalizados por algoritmos, dominarem o panorama digital no que a geração de informação e de reprodução de práticas socioculturais diz respeito (Boyd & Crawford, 2012; Cukier & Myer-Schonberger, 2013; Coté, Gerbaudo & Pybus, 2016), confere uma responsabilidade acrescida aos Estados em geral e ao sujeito em particular.

Pela perspetiva do Estado, como regular usos e aplicações? Como limitar tentativas de manipulação? Como atuar na produção e difusão de modo a gerar uma sociedade com padrões exigentes de conhecimento? Que parte do contrato social é necessário rever para instaurar uma separação clara entre informação e desinformação?

Pela perspetiva do sujeito, quais os limites da liberdade individual? Até que ponto o consumo de informação é livre? E que informação? É ou não legítimo ao sujeito uma rebeldia contra informações hegemónicas, que, segundo Safatle, constituem as armas da violência do Estado impostas ao sujeito?

Eis então questões éticas. Apesar das potencialidades no aumento da informação e do conhecimento, das possibilidades de produção de sentido contra o próprio Estado-nação, o recorte eminentemente financeiro e capitalista esconde-se por detrás do ecrã movendo-se para os que dominam Big Data. Para Tristan Harris, ex-chefe de ética da Google, estamos diante de uma ausência de “design ético” no modo como operam as empresas que gerem grande volumes de dados. No seu entender, a captura de atenção e a manipulação e modelação comportamental que tem sido encetada pelos gigantes digitais têm em vista resultados meramente económicos (Oliveira, 2018). Esta dinâmica, subtilmente escondida, gera um descontrolo global sem precedentes e com impactos imprevisíveis. Trata-se de um domínio social e mental sem rival (Lanier, 2018).

Há quem considere, por exemplo, o Google um mero motor de busca; ou o Facebook um local se encontram pessoas ou partilham conteúdos. Ao fazê-lo desta forma, não se subentende que tanto um como o outro, e os outros em geral, competem sobretudo pela atenção das pessoas (Patino, 2019). O negócio das plataformas tecnológicas é, precisamente, o de manter pessoas em frente ao ecrã o maior tempo possível, permitindo-lhes uma utilização gratificante enquanto lhes mostram produtos e publicidades com meras intenções comerciais. De facto, a ideia de gratuitidade nos usos de plataformas digitais é uma ilusão, na medida em que nos algoritmos se destacam ferramentas de captura de atenção cada vez mais performativos, dissimulados e adequados à biografia individual, articulando valores de mercado com modelação comportamental (Mackenzie, 2006; Lanier, 2018).

Para entendermos melhor esta relação entre o paradigma da economia da atenção e o problema ético levantado pelas funções de um designer de algoritmos focado em resultados numéricos, atentemos ao funcionamento do PageRank (algoritmo do Google) e do EdgeRank (algoritmo do Facebook). Escolhemos estes dois algoritmos por razões óbvias: o primeiro por pertencer à maior rede social digital da atualidade; o segundo porque cerca de 75% das procuras na internet são efetuadas no PageRank (Reliablesoft, 2018).

Para Casarotto (2020, s.p.), o Page Rank procede a “um conjunto de operações que define a forma como os resultados das buscas serão apresentados aos usuários” através de sites, páginas e informações que foram indexadas e organizadas ao longo do tempo de vida da internet.

Inicialmente, as fórmulas dos algoritmos para listar e organizar as informações por ordem de importância eram simples. Tanto que davam origem à prática de Black Hat SEO - conjunto de estratégias de otimização de páginas com o objetivo de conquistar melhores posições nos motores de busca de uma forma rápida, ainda que eticamente questionável. No entender de Camargo (2019, s.p), “práticas como cloacking, keyword stuffing e spam em comentários são as principais formas de fazer Black Hat”.

Por seu turno, estas práticas levaram empresas detentoras de motores de busca, como o Google, a aperfeiçoar algoritmos de procura de informação, tornando-os mais complexos de modo a bloquear más práticas ou modos menos éticos de “aparecer” nos resultados. Simultaneamente, estes algoritmos foram programados para valorizar sites e páginas que entregassem os melhores resultados aos utilizadores. Parafraseando Deleuze & Guattari (2004), é como se os motores de procura de informação como o Google, o Yahoo! ou o Bing, entre outros, se tornassem extensões, “corpos sem órgãos” especializados em responder aos desejos. À medida que os internautas vão cedendo informação sobre o que procuram e como procuram, à medida que vão registando modos de encontrar informação, os motores aprendem (machine learning) e aperfeiçoam as respostas, concluindo que “o melhor resultado é aquele que traz a melhor resposta, que está não só no conteúdo que a página entrega, mas também na qualidade da experiência de navegação” (Casarotto, 2020, s.p).

No caso do PageRank, o processo de oferta às procuras semânticas de informação passa por quatro fases: rastreamento, indexação, ordenação e utilidade (Casarotto, 2020, s.p.). No primeiro processo, o crawling/rastreamento vai “verificar, através do um programa de computador desenvolvido pelo Google, com a finalidade de rastrear as páginas públicas de toda a web” (Dias, 2020, s.p.). Nesta etapa, o Googlebot (nome do rastreador do Google) procura ligações para serem indexados à sua base de dados. As páginas descobertas que contêm links indicam novos caminhos para que o Googlebot continue o rastreamento (Casarotto, 2020). Por um lado, e devido a guerras comerciais entre a Google e algumas empresas (e.g. Adobe Flash), o Googlebot não possui todas as permissões e códigos e por isso não lhe é possível “ler conteúdos em Flash, por exemplo, o que impede que eles sejam rastreados” (Casarotto, 2020, s.p.). Por outro, “o desenvolvimento de sites com códigos HTML - preferencialmente simples e limpos, organizados em sitemaps - garante que seu conteúdo esteja acessível aos rastreadores” da Google (Casarotto, 2020, s.p). Seguir esta dinâmica hoje implica ter bons resultados no motor de buscas da Google.

O segundo processo do PageRank é a indexação. Após o rastreamento, os sites encontrados vão para uma base de dados, inscrevendo-se no seu índice de pesquisa. A “inteligência” incorporada nesta secção vai permitir perceber quais as palavras-chave mais importantes, qual a frequência, qual a sua localização (e.g. títulos, cabeçalhos, corpo do texto), qual a idade do conteúdo, qual o tempo de carregamento e quais os textos em que essas palavras-chave aparecem. Esses termos vão funcionar como entradas para um site ou página, influenciando a indexação. A ordem estabelecida vai depender dos atributos de ordenação do algoritmo (Casarotto, 2020). No entender de Han (2018, p.13), esta dinâmica comporta o problema da escassez de entendimento dos dados, pois o que sistemas e pessoas fazem com as indexações e ordenações é uma substituição do entendimento pelo “numérique” - o espírito do numerável é assim imposto pelo universo digital. Han conclui algo que era análogo em Tarde (1992), sobretudo quando este último discorria sobre os efeitos da imprensa na multidão: ao contrário da ponderação, os modelos massivos colocam-nos diante da numeração, seja na informação como na subjetividade, individual e coletiva.

O terceiro processo do PageRank é o da ordenação/ranking. Neste processo, que deriva das operações ocorridas nos processos anteriores (rastreamento e indexação), entram em ação diversos algoritmos ao mesmo tempo para contribuir para os resultados oferecidos pela totalidade do PageRank. É aqui que os links mais relevantes vão aparecer nos primeiros lugares, obedecendo a fatores de ordenação: “estima-se que sejam mais de 200, mas o Google não revela exatamente quais são” (Casarotto, 2020, s.p). Um desses fatores é óbvio: a palavra escrita no motor de busca vai procurar associações atuais entre essas palavras e os acontecimentos, situações e dinâmicas ocorridas na internet, onde o maior número de partilhas, gostos e comentários fará sobressair resultados. Numa fração de segundos, os resultados revelam a contingência. De modo geral, em primeiro lugar esta ordenação de resultados obedece a uma tentativa de entendimento que o PageRank faz das “investigações” dos utilizadores, “considerando que as palavras têm diferentes significados e que as pessoas usam uma linguagem natural na busca” (Casarotto, 2020, s.p.). De seguida, o algoritmo estabelece associações de correspondência entre os termos de procura e os conteúdos das páginas. Aqui é feita uma verificação ao índice de páginas indexadas por palavra-chave. Quando existe associação, significa que a página é relevante para a consulta. Por seu turno, e em terceiro lugar, o PageRank classifica as páginas numa ordem que seja relevante para o utilizador ao tentar entender se as páginas são informativas, confiáveis e de qualidade (elementos do site e da página, os links que recebe de outros sites e os sinais da experiência do utilizador são aqui determinantes). Em quarto lugar, o PageRank personaliza as procuras, ou seja, localização, histórico e configurações de pesquisa podem ser usadas pelos utilizadores como filtros nos resultados finais. Finalmente, e para assegurar que resultados e a ordenação exibida são relevantes para o utilizador, o PageRank efetua uma série de testes automatizados auxiliados pelos resultados de avaliações manuais e externas que terão ocorrido em toda a internet, operações estas que visam a monitorização e o julgamento da qualidade das procuras.

Já no quarto e último processo de constituição do PageRank, surge o lado mais utilitário de resposta à procura de informação, que é constituído por “respostas úteis” inscritas no seu “mapa de conhecimento”. Este “mapa de conhecimento” é uma base de dados sobre factos e associações que permite entregas de respostas prontas. É o caso de celebridades, localizações, eventos, acontecimentos históricos, entre outros (Casarotto, 2020, s.p.).

Relativamente ao modo de funcionamento do EdgeRank, algoritmo do Facebook, é importante mencionar que este se foca, sobretudo, na dinâmica de interação do sujeito enquanto membro de redes de pessoas que se conectam por mediação tecnológica. Neste existem três novidades que sobressaem desde 2015 e que atuam sobretudo na dimensão emocional: a ferramenta “reações”, “que representa seis emoções que o usuário pode utilizar para demonstrar o que sentiu ao ler”, a patente “técnicas para deteção de emoção e entrega de conteúdo” e a patente “aumento da mensagem de texto com informação de emoção” (Machado, 2018, p. 49). O EdgeRank consegue analisar sentimentos, emoções e ideias, adaptando-se a potenciais respostas ao medir “a velocidade da digitação, a pressão do toque ao digitar, padrões de interação do usuário ou mesmo a sua localização no momento da digitação” (Machado, 2018, pp. 50-51). Emoções e sentimentos ficam à sua mercê, que assim conhece como ninguém os gatilhos da ação e da presença nesta rede digital (Costa, 2020a).

Esta explicação sobre o funcionamento de dois dos mais relevantes algoritmos da atualidade permite-nos abrir a possibilidade de explicar, de um ponto de vista sociotécnico, o modo como os resultados das interações digitais estão a ser condicionados por fatores como o “desejo” e o “social”, na aceção descrita anteriormente a partir de Tarde (1978), Deleuze & Guattari (2004) e Christakis & Fowler (2010). Tanto o PageRank com os seus modos de rastreamento, indexação, ordenação e utilidade, que estabelece diversos modos de associação com a contingência mais relevante tanto social como numericamente, como o EdgeRank, crescentemente emocional e cerebral medindo o sujeito antes de lhe influenciar a ação ou até mesmo antes de agir por conta própria, revelam o paradigma da economia da atenção. Ambos fazem do sujeito o próprio produto (Lanier, 2010).

Ao casar, nos ecrãs, social e desejo, estes aparatos sociotécnicos fazem do sujeito o próprio produto, na medida em que se focam no cumprimento das necessidades sociais (informação e conexão) e nos desejos (através das preferências e gratificações recolhidas). Esta atenção sociotécnica, todavia holística, sobre o sujeito está a ser vendida a agências e departamentos de publicidade, tornando os algoritmos particularmente poderosos e influentes. Percebemos como tanto o PageRank como o EdgeRank se adaptam, de maneira subtil, ao sujeito e à contingência. Através de cumulativas e graduais mudanças, ligeiras e quase impercetíveis, estes algoritmos persuasivos atuam nos domínios sociais dos temas que vendem e anunciam, acabando por influenciar desejos, comportamentos, vontades e até representações e perceções sobre o mundo (Lanier, 2018). Ao colocar o histórico num regime associativo a pessoas e coisas, a emoções e modos relacionais, o algoritmo concretiza o sujeito como o seu próprio produto, um sujeito bem sistematizado, portanto mais previsível e ao mesmo tempo mais facilmente manipulado. Como sugere Han (2018), o sujeito autoexplora-se sem querer.

Ao fazermos esta observação estamos, portanto, a discorrer sobre dois mil milhões de utilizadores de plataformas digitais ao redor do mundo. Mas ainda que estivéssemos a discorrer apenas uma percentagem ínfima, ainda que somente 1% alterasse os seus modos de sentir, pensar e agir devido às forças de influência e transmissão dos gigantes digitais, estaríamos a discorrer sobre uma enorme transformação. É que, tal como lembrava Tarde (1978, p. 113), “a sociedade é a imitação”, sendo esta uma ação de continuação ocorrida algures e transmitida na cadeia social. Hoje muito mais sociotécnica do que no passado. Uma ideia ou uma imagem no digital são, portanto, factos sociais imitáveis quando colocados “inicialmente no espírito por uma conversa ou por uma leitura, se o ato habitual teve por origem a vista ou o conhecimento de uma ação análoga de outrem” (Tarde, 1978, p. 100). Ainda que a alteração ocorra em poucas pessoas, se essa alteração for na direção pretendida por alguém isso pode ser suficiente para se alterar decisivamente o mundo, na medida em que os influenciados, através da imitação, rapidamente se convertem em dez, vinte ou cinquenta por cento através das possibilidades sociotécnicas atuais. E com uma agravante: as nuances da captura da atenção são, cada vez mais, subtis ao ponto de ser habitual só darmos conta da sugestão e do contágio depois de instaladas as dinâmicas. A este respeito, relembramos o estudo de Ribeiro, Ottoni, West, Almeida e Reis (2020), que revela como o algoritmo do YouTube, um outro gigante digital apetrechado de algoritmos persuasivos, se tornou um veículo de radicalização política.

3. Da ferramenta ao intelecto algorítmico

Esta dinâmica sociotécnica que descrevemos de modo sucinto constitui aquilo a que se tem vindo a designar de capitalismo de vigilância. Tanto a pressão económica do capitalismo como a intensificação da conexão e a monitorização dos comportamentos online criam espaços em que a vida social fica saturada por atores corporativos, com foco quase exclusivo em lucros e, necessariamente, na regulamentação de comportamentos (Couldry, 2017).

Este tipo de capitalismo lucra com a vigilância que promove às interações sociais e aos desejos impressos nas redes. Os milhares de dados sobre cada utilizador constituem mercados quase infalíveis, demasiado certeiros, algo inédito na história humana. Hoje negoceia-se a atenção social e subjetiva dos sujeitos, isto é, negoceiam-se pessoas em grande escala (Patino, 2019; Lanier, 2018; Costa, 2020b).

Por outro lado, e ainda que nem tudo se resuma ao aspeto da economia, a grande individuação e provavelmente a maior problemática da atual era digital é a própria “economia da atenção”, subespecialização da “economia digital” e do capitalismo de vigilância. Longe do projeto inicial de Tim Berners-Lee, a visão utópica, iluminista e romântica presente na ideia inicial de internet é hoje o lugar de grandes empresas, especialistas em “captologia” e produtoras de “computadores carismáticos” dirigidos à “arte de captar a atenção do utilizador, quer este queira ou não” (Patino, 2019, p. 47).

Aprisionando de vários modos a atenção do sujeito, criando “arenas” de combate e de competição, acelerando e mobilizando através da subtileza do próprio espírito capitalista contido em algoritmos, no capitalismo de vigilância prolifera qualquer coisa que inquieta Safatle (Oliveira, 2020). Por outras palavras, trata-se de uma “violência coletiva nascida das paixões individuais e um poder económico nascido da acumulação. Os nossos vícios não são mais do que o resultado estabelecido entre ambos, bem como da superestrutura económica que os faz alimentarem-se um do outro” (Patino, 2019, p. 38). Isolado, desprovido de instrumentos que lhe permitam ficar de fora, incapaz de sentir “JOMO” (“Joy of missing out” ou “alegria por se estar desconectado”), com medo do consumo solitário (Costa & Capoano, 2021) e incapaz de resistir às estratégias de sedução inspiradas pela psicologia social, o sujeito vive dependente e influenciado por ecrãs, entregue ao seu poder de inclusão e exclusão social (Han, 2018).

Este embate pela atenção é então dinamizado pela tríade “ecrã-algoritmos, sujeito e outro-que-patrocina”, sendo ganho, no entender de Rosa (2016), pelos algoritmos de “captologia” quitados com poderosas e aceleradoras ferramentas de machine learning e inteligência artificial.

Entre as principais aplicações das redes digitais contabilizam-se técnicas de recomendação de produtos e conteúdos, anúncios em tempo real, resultados personalizados apresentados no feed da rede digital, recomendações de séries e filmes, otimização de pesquisas, deteção de fraudes e invasões, reconhecimento de voz e semântica e reconhecimento de objetos e textos. A “máquina de Turing”, num sentido metafórico e mais amplo, contém o germe da “economia da atenção” usada pelo capitalismo informacional e pelos seus diversos actantes sociotécnicos. Eis uma grande inquietação: “a aceleração substituiu o hábito pela atenção, e a satisfação pela dependência”. E os algoritmos constituem-se ora em corpos sem órgãos, ora em máquinas desejantes “desta economia” (Patino, 2019, p. 15).

Neste sentido, o estado de vigilância ocorre em vários aspetos. As previsões melhoram diariamente em algoritmos como o EdgeRank ou o PageRank, isto porque os sujeitos colocam continuamente informações sobre o seu comportamento - fica assim traçado o perfil, psicológico- sociológico-associativo. Os gigantes da tecnologia constroem, desse modo, modelos cada vez mais precisos na previsão de ações. Vence a empresa que melhor se adaptar a esta dinâmica (Lanier, 2018). É como se as empresas tivessem, no lugar de um sujeito, um avatar para preencher do outro lado: que emoções o estimulam? Que tipo de vídeos é que ele mais gosta? Que tipo de conteúdos têm como preferência? Como é que prefere interagir?

Para a maioria das empresas tecnológicas que vendem essa “atenção do sujeito”, existem sobretudo três grandes objetivos que se prendem com fatores comerciais: 1. “Engajamento digital do sujeito”, que se cumpre através das dinâmicas de envolvimento, interação, intimidade e influência (Siqueira & Bronsztein, 2015); 2. Crescimento, através do aumento de tempo permanecido na rede e do aumento de pessoas envolvidas (Lanier, 2018); 3. Publicidade, onde se garante que enquanto tudo acontece, se maximizam lucros com as dinâmicas entre produtos anunciados e vendas alcançadas (Patino, 2019). Significa isto que quando duas pessoas se conectam online existe um modo geral de financiar essa conexão: através de uma terceira pessoa que paga para tentar manipular ambas. Neste contexto, o significado atual de comunicação, ou em sentido mais amplo o significado de cultura, é hoje, mais do que nunca, a própria manipulação encetada por esse terceiro elemento nas redes digitais (Lanier, 2018).

Dentro desta perspetiva, a manipulação passa a ser um poderoso intelecto sob aquilo que fazemos. Vejamos, para completar esta ideia, um exemplo prático e recorrente nas nossas práticas nas redes: nomeamos a pessoa em uma qualquer rede digital; o sistema envia uma notificação dessa nomeação ao outro; do outro lado é elaborada uma resposta a essa nomeação; passa-se para um sistema de mensagens privado como por exemplo o Messenger ou o WhatsApp; este mostra as reticências para revelar que do outro lado está a haver resposta (se houver paragem da escrita da resposta, existem até sistemas a sugerir soluções para a finalizar). Ou seja, um conjunto de processos sociotécnicos de captura da atenção estão a agir de modo a fazer com que o sujeito permaneça em frente ao ecrã. Há um lado cobaia, não necessariamente para desenvolver a cura para uma qualquer doença, mas para perceber como funcionamos, para que a nossa atenção continue refém, orientando-a para objetivos empresariais dos patrocinadores instalados neste mercado. Criamos um mundo em que a ligação online se tornou primária e a atenção está ao serviço de associações mentais, comportamentais e sociais estimuladas, senão produzidas, por algoritmos (Lanier, 2018).

É aqui que assinalamos a transição de um estado de ferramenta para um estado de intelecto, por parte dos algoritmos. Se o objetivo do pai do machine learning (Alan Turing), na descodificação do “Enigma” (máquina usada pelos alemães na segunda Guerra Mundial), era o de prever ataques através da análise de dados históricos sem confirmar ao inimigo a sua existência, evitando propositadamente acertar todo o tipo de ataques alemães para que estes não descobrissem a sua presença (Copeland, 2004), há qualquer coisa de semelhante na dinâmica sociotécnica atual. Mas mais do que isto, já que diferentes culturas e diferentes tempos usam diferentes perspetivas e modos de ação (Deleuze & Guattari, 2004): a atual contingência altera formas e conteúdos. Ao contrário do tempo da máquina de Turing, hoje tanto o Machine Learning como a AI estão focadas em processos de engenharia reversa na medida em que o produto é o sujeito, sendo que o grande objetivo é, em sentido neurológico, perceber como libertar constantemente a dopamina e com isso levando-o a permanecer no sistema. Trata-se de uma exploração estratégica das vulnerabilidades da psicologia humana (Lanier, 2018).

Isto conduz-nos a outra reflexão que se intersecta com a questão do domínio das vulnerabilidades. Pensemos, ainda antes do ML e da AI, no martelo, no automóvel ou até mesmo no ecrã. Quando estes se inventaram não se alterou propriamente a dinâmica psicossociológica no sentido em que estes não se iriam emancipar continuamente através da exigência, da manipulação ou da sedução. Estávamos aí numa interação pré-behaviorista sem um terceiro elemento sempre presente, na medida em que não existia do outro lado um intelecto a interagir, no momento, diretamente nas respostas dos utilizadores desses objetos técnicos. Assim, uma ferramenta, como um carro ou um martelo, estava ali à espera do sujeito, vazio de respostas sofisticadas para estimular usos e gratificações (Katz & Kahn, 1970). Pelo contrário, diante de algoritmos persuasivos, que capturam e entendem as associações entre os usos comuns e as gratificações geradas no sujeito, existe uma atuação direta nas crenças e nos desejos. Os algoritmos converteram-se em intelectos persuasivos.

Neste sentido, já não estamos no domínio da “ferramenta”, mas antes num behaviorismo sociotécnico se atentarmos à noção metodológica de John Watson (1913), ainda que muito mais associativista e conectivista. Para Watson (1913), o comportamento humano definia-se através de unidades analíticas, sendo estas tipos de respostas a estímulos. A ideia é a de que os estímulos seriam a causa do comportamento observável. No seu entender, o objetivo teórico do behaviorismo era “a previsão e o controle do comportamento. A introspeção não é parte essencial de seus métodos” (Watson, 1913, p.1). Ainda que para Noam Chomsky (1967), entre outros, o behaviorismo seja limitado, sobretudo no que concerne à modelação da linguagem e nos processos de aprendizagem, o facto de atuar nas dimensões de previsão e controle dos comportamentos serve, neste caso em concreto, os intentos comerciais das dinâmicas inscritas no capitalismo de vigilância e da atenção (Patino, 2019).

Esta dinâmica situa-se, em nosso entender, num plano que cruza social, desejo e intersubjetividade, isto é, interligam-se, num primum associationis, fatores como o que desejamos individualmente, o que necessitamos ou julgamos necessitar socialmente e o que os produtores de algoritmos, através de subjetividades e opiniões muito próprias e particulares, desejam da ação e da subjetividade dos sujeitos a influenciar. Esta dinâmica interativa dá-se, portanto, em três vértices: sujeitos, algoritmos e subjetividades. Promove usos e gratificações no sujeito e na informação, e base de dados no algoritmo, possibilitando a atuação em função das orientações comerciais dos patrocinadores. Tudo isto tendo como propósito a interação orientada, proposta e binária que é encetada pelo algoritmo ante o sujeito. Passamos a ter não um ambiente tecnológico que teria por base a figura da ferramenta, como no caso do carro, do martelo ou mesmo do ecrã offline, mas antes a figura de um intelecto sociotécnico, quitado com dados sobre desejos e crenças do sujeito e capaz de gerar intersubjetividades entre esse e o produto. Trata-se de um poderoso confronto de intelectos contingentes inserido numa contingência coletiva muito própria e em permanente atualização, indexação, ordenação e categorização - tal como empreendem PageRank e EdgeRank.

Isto leva-nos a uma outra inquietação: se com o ecrã-cinema, o ecrã-tv ou o ecrã-computador offline estávamos diante de ferramentas de comunicação do tipo dialógico, que podiam ser usadas para comunicar e estabelecer vínculos e significações entre dois elementos, o produtor e o consumidor (Costa, 2013), com o ecrã manipulado por algoritmos sofisticados e programados para atingir determinados objetivos, fundamentalmente comerciais, estamos diante de intelectos que conseguem influenciar e prever dinâmicas. Este agregado dinâmico de “crenças e desejos” circulantes, utilizando a terminologia de Tarde (1978), ou estes “intelectos contingentes” que dinamizam associações, valores, opiniões, morais e relações, refletem os “resultados e traduções de entendimentos, distribuídos e generalizados em convergência de meios na contingência sociotécnica” (Costa, 2020b, p.75).

O que, em certo sentido, gera um paradoxo: se a cultura digital tinha promovido uma transição das estrelas para os ecrãs (Virilo, 2001), e se existe, na contemporaneidade, uma deslocação do logos e do ethos para o pathos, das proposições para as imagens, de uma imagem que reúne para uma imagem que separa (Oliveira, 2004), também se percebe que estas transladações se operam tendo como referência não tanto a imagem, mas a palavra convertida em coisa numérica, em bit, em sim e não, em zeros e uns. Neste sentido, as sociedades contemporâneas animadas pelo digital veiculam palavras, imagens e pensamentos que destacam intelectos contingentes dominantes (Costa, 2020b).

Por outro lado, no que a associações sócio-semânticas diz respeito, é a palavra que permite o rastreamento, a indexação, a ordenação e a utilidade. Em suma, é a palavra que gera associações. Neste sentido, o ecrã em rede, povoado por algoritmos com base em opiniões de programadores e empresas, funciona como um conjunto de intelectos em busca de associações sócio-semânticas para produzir modos contingentes de manipulações do pensar, sentir e agir. E o motor destes intelectos contingentes são, em última instância, redes por onde circulam pessoas e conhecimentos. Estas permitem influenciar, através desses intelectos contingentes circulantes, pessoas conhecidas ou desconhecidas, vizinhos ou afastados, amigos ou inimigos. O “apelo do objeto técnico” tendo por base o algoritmo não é, agora, o da simbiose “mão-objeto” (Neves, 2006), mas o da relação sincrónica entre intelectos dominadores e intelectos dominados. Quer dizer, entre intelectos contingentes circulantes.

Eis-nos então diante de um paradigma novo: plataformas e redes digitais, através de ecrãs em rede povoados por algoritmos, não são ferramentas à espera de ser usadas. Estas usam o movimento sujeito como se tratasse de Aikido, capturam a sua atenção, procuram os seus desejos através de meios próprios. Usam psicologia e sociologia, bem como todas as suas associações ao longo de uma vida, contra o próprio sujeito. Ao imporem interações que conduzem a determinadas emoções e que se materializam em Likes, corações ou emojis, enquanto “corpos sem órgãos” e ligados a máquinas desejantes com recorte capitalista, os algoritmos funcionam como valores que se transformam em verdades adequadas aos desejos ou às expectativas sociais. É neste sentido que a dimensão da “verdade” se fragmenta, se relativa e se personaliza (Lipovetsky, 2010). Quer dizer, de uma verdade que se pretende adequada originam-se associações perpetradas por intelectos sociotécnicos contingentes que partem de técnicas e subjetividades registadas em algoritmos. Surge daqui, em certo sentido, a noção de verdade que em Tomás de Aquino (2000) mais ecoava: Veritas est adequatio rei et intelectus - a verdade é a adequação do intelecto à coisa. Neste caso, a contemporaneidade apresenta-se não sob a força de uma ideia de “verdade” universal, mas antes marcada por uma noção de “verdade” subjetiva e relativa, que coloca os intelectos em adequação à contingência vivida, condicionando desse modo ações, pensamentos, emoções e sensações. A verdade revela-se, neste sentido, como sendo a contingência que o sujeito revela através de algoritmos.

Toda esta dinâmica acontece nas redes digitais em lógicas de curto prazo, colocando o sujeito a pensar no que vai fazer a seguir para obter um “sucesso social” ainda maior (Lanier, 2018). No sentido de penetrar e dominar dois mil milhões de pessoas nas dimensões do social e do desejo, algoritmos simples e complexos unificam-se, formando uma inteligência avassaladora, um intelecto contingente exterior e manipulador (Patino, 2019).

Além disso, e na medida em que algoritmos são opiniões em forma de programação e código, toda esta dinâmica acontece na esfera da intersubjetividade (Tarde, 1978; Giddens, 2018). Opiniões e ideias subjetivas partem de cérebros individuais de programadores que visam, em última instância, a maximização de lucros dos seus empregadores (Lanier, 2018). Os algoritmos são, deste modo, otimizados para uma definição de sucesso subjetiva, que parte de alguma opinião sobre o que é ou não sucesso. É o caso de uma empresa quando constrói um algoritmo: tem como princípio a sua própria noção de sucesso, a sua própria definição de verdade. Sob a influência do seu algoritmo, vivemos presos a essa subjetividade alheia. As noções de “verdade” surgem deste modo como parte do intelecto da empresa que tenta impor um modo de interação com os produtos que publicita. Isto significa que as empresas digitais cedem, assim, aos ecrãs, um programa para atingir um determinado objetivo, para aprender a atingir um determinado objetivo, e com isso cumprir a definição de sucesso dessa empresa, dessa subjetividade. Vence a perspetiva numérica - em euros, em dólares, em número de cliques e de interações. O behaviorismo de Skinner, atualizado gradual e continuamente por bases de dados inspiradas nas necessidades, emoções, gostos e associações dos próprios sujeitos, constitui um poderoso intelecto que, ainda que contestado pelas escolas críticas, continua a dominar processos digitais (Patino, 2019). A prova está nos lucros das empresas digitais que adotam tecnologias de Machine Learning, Inteligência Artificial e outras tecnologias emergentes. De há uns anos a esta parte, estas aumentam os lucros anuais em 80% mais rapidamente do que aquelas que não o fazem (Oracle, 2020).

Em suma, este surge como um dos maiores dilemas da contemporaneidade: a necessidade de ter presença no ecrã abriu as portas à captologia. Desejos e necessidades sociais foram capturados e colocados na mão de empresas que querem extrair deles o maior lucro possível. Somos cada vez mais “máquinas desejantes” sob o controlo de “corpos sem órgãos”. O behaviorismo está bem vivo, na medida em que os algoritmos preveem e tentam manipular comportamentos e interações através da relação entre interações e estímulos. Passamos de um tempo dominado pela ferramenta para um tempo dominado pelo algoritmo que se torna, ele mesmo, um intelecto contingente poderoso. Agora a questão é: como impedir que este dilema tome proporções ainda mais descontroladas? Seria útil seguir as indicações de Tristan Harris, relativamente à importância de se atuar eticamente na programação de algoritmos. Linhas de código ético, com atribuição de responsabilidades individuais, empresariais e até estaduais, poderiam emergir (Oliveira, 2018). O domínio social e mental, nesta linha behaviorista e pós-behaviorista, clama por uma intervenção urgente dos Estados-nação, por uma maior assunção de responsabilidades coletivas no seu interior através do Direito, sob pena de se aumentarem atitudes niilistas excessivamente negativas acompanhadas de manifestações de retaliação ante um modelo de capitalismo de vigilância hegemónico, em múltiplos formatos também esses digitais (e.g. Fake News), contra o próprio Estado. Caso não se intervenha a partir de uma força conjunta, o sinal capturado pelas massas com menor poder passará sempre pela ideia de união e de conivência entre Estado e empresas digitais.

Referências

Aquino, T. (2000). Suma teológica - parte I. Porto alegre: Edipucrs. [ Links ]

Boyd, D. & Crawford, K. (2012). Critical questions for Big Data. Information, Communication & Society, 15(5), 662-679. DOI: 10.1080/1369118X.2012.678878 [ Links ]

Bauman, Z. (2006). Amor líquido - sobre a fragilidade dos laços humanos. Lisboa: Relógio D’água. [ Links ]

Camargo, G. (2019, 11 de junho). O que é Black Hat e como essa estratégia pode prejudicar seu site? Rock Content. Consultado em https://rockcontent.com/br/blog/black-hat/Links ]

Casarotto, C. (2020, 11 de março). Algoritmo do Google: entenda como funciona e saiba como rankear em 2020. Rock Content. Consultado em https://rockcontent.com/br/blog/algoritmo-do-google/Links ]

Christakis, N. & Fowler, J. H. (2010). O Poder das Conexões. Rio de Janeiro: Campus. [ Links ]

Copeland, B. J. (2004). The essential Turing. The ideas that gave birth to the computer age. Oxford: Clarendon Press. [ Links ]

Costa, P. R. (2013). Entre o ver e o olhar: ecos e ressonâncias ecrãnicas. Braga: Universidade do Minho. Retirado de http://repositorium.sdum.uminho.pt/handle/1822/24492Links ]

Costa, P. R. (2020a). Uma cartografia do ódio no Facebook: Gatilhos, insultos e imitações. Comunicação Pública, 30 (no prelo). [ Links ]

Costa, P. R. (2020b). Impactos da captologia. Problemáticas, desafios e algumas consequências do “dar vistas” ao ecrã em rede. Sociologia Online, 23. DOI: 10.30553/sociologiaonline.2020.23.4 [ Links ]

Costa, P. R. & Capoano, E. (2021). O medo do consumo solitário: comentários em canais infantojuvenis de YouTube do Brasil e de Portugal, Journal of Iberian and Latin American Research, DOI: 10.1080/13260219.2020.1909872. Disponível em https://www.tandfonline.com/eprint/AG5KJUPNMPA4XFCCVQFV/full?target=10.1080%2F13260219.2020.1909872&fbclid=IwAR3qoD0hoBC9Jf_REofG4ghTsC4KrcLTG3U8qE_mFUBkOy0CiVeh37j4rw4Links ]

Costa, P. R., Sousa, V., Capoano, E & Paganotti, I. (2020). Riscos, dilemas e oportunidades: atuação jornalística em tempos de Covid-19. Estudos em Comunicação, (31), 1-33. 10.25768/20.04.03.31.01 [ Links ]

Coté, M., Gerbaudo, P. & Pybus, J. (2016). Introduction: politics of big data. Digital Culture & Society, 2(2), 5-15. DOI: 10.14361/dcs-2016-0202. [ Links ]

Couldry, N. (2017). The price of connection: 'surveillance capitalism'. The Conversation. Retirado de https://theconversation.com/the-price-of-connection-surveillance-capitalism-64124Links ]

Cukier, K. & Mayer-Schönberger, V. (2013). Big Data: a revolution that will transform how we live, work and think. Nova Iorque: Houghton Mifflin Harcourt. Retirado de http://www.scielo.mec.pt/scielo.php?script=sci_nlinks&ref=1678343&pid=S2183-3575201800010000500008&lng=ptLinks ]

Deleuze, G. & Guattari, F. (2004). O anti-édipo. Capitalismo e esquizofrenia 1. Lisboa: Assírio e Alvim. [ Links ]

Dias, T. (2017, 5 de dezembro). Googlebot, entenda como funciona o robô do Google. Rock Content. Consultado em https://rockcontent.com/br/blog/googlebot/Links ]

Giddens, A. (2018). A Magna Carta For The Digital Age. New Perspectives Quarterly, 35 (3): 6-8. Retirado de https://onlinelibrary.wiley.com/doi/epdf/10.1111/npqu.12151Links ]

Han, B-C. (2018). A expulsão do outro: Sociedade, perceção e comunicação hoje. Lisboa: Relógio D’Água. [ Links ]

Helbing, D. (2015). The automation of society is next. How to survive the digital revolution. Charleston: CreateSpace Independent Publishing Platform. Retirado de http://www.scielo.mec.pt/scielo.php?script=sci_nlinks&ref=1678350&pid=S2183-3575201800010000500013&lng=ptLinks ]

Jacques, F. (1977). Les conditions dialogiques de la référence. Études Phénoménologiques, 3: 267-305. [ Links ]

Jenkins, H.; Green, J.; Ford, S. (2014). Cultura da conexão: criando valor e significado por meio da mídia propagável. São Paulo: Aleph. [ Links ]

Jung, C. (1979). O Eu e o Inconsciente. Petrópolis: Editora Vozes. [ Links ]

Katz, D. & Kahn, R. (1970). Psicologia social das organizações. São Paulo, Atlas. [ Links ]

Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big Data & Society, April-June, 1-12. DOI: 10.1177/2053951714528481 [ Links ]

Lanier, J. (2010). Gadget: você não é um aplicativo!. São Paulo: Saraiva. Retirado de https://mundonativodigital.files.wordpress.com/2016/04/gadget-jaron-lanier.pdfLinks ]

Lanier, J. (2018). Dez argumentos para você deletar agora suas redes sociais. Rio de Janeiro: Editora Intrínseca. Retirado de https://www.amazon.com.br/Argumentos-Deletar-Agora-Redes-Sociais/dp/855100395XLinks ]

Latour, B. (2012). Reagregando o social. Introdução à teoria do ator-rede. Bahia: Edufba. [ Links ]

Lipovetsky, G. (2010). A Cultura-mundo. Resposta a uma sociedade desorientada. Lisboa: Edições 70. [ Links ]

Luger, G.F. (2004). Inteligência Artificial. Estruturas e Estratégias para a Solução de Problemas Complexos. Porto Alegre: Bookman. [ Links ]

Machado, D. F. (2018). Mediações algorítmicas: O poder de modulação dos algoritmos do Facebook. Revista Parágrafo, 6(1), 43-55. Retirado de http://revistaseletronicas.fiamfaam.br/index.php/recicofi/article/view/703/559Links ]

Neves, J. P (2006). O apelo do objeto técnico. Porto: Campo das letras. [ Links ]

Oliveira, H. (2018, 22 de fevereiro). Resgatar a mente do sequestro tecnológico. Revista Ver. Retirado de https://www.ver.pt/resgatar-a-mente-do-sequestro-tecnologico/Links ]

Oliveira, M. (2004). Os media como espaço do sim-bole, ou da dia-bole? Comunicar - Revista Iberoamericana de Comunicación y Educación, 22 (33-37). Retirado de http://repositorium.sdum.uminho.pt/handle/1822/66616Links ]

Oracle (2020). Emerging Technologies: The competitive edge for finance and operations - How market leaders are managing change with cloud-driven innovation. Retirado de https://www.oracle.com/a/ocom/docs/esg-research-oracle-emerging-technologies.pdfLinks ]

Patino, B. (2019). A civilização do peixe-vermelho: Como peixes-vermelhos presos aos ecrãs dos nossos smartphones. Lisboa: Gradiva. [ Links ]

Reliablesoft (6 de fevereiro de 2018). Top 10 search engines in the World. Reliablesoft. Retirado de https://www.reliablesoft.net/top-10-search-engines-in-the-world/Links ]

Ribeiro, M., Ottoni, R., West, R., Almeida, V., & Reis, W. (2020). Auditing radicalization pathways on YouTube. In 2020 Conference on Fairness, Accountability, and Transparency (pp. 131-141). Doi: 10.1145/3351095.3372879 [ Links ]

Rosa, H. (2016). Aceleração: A transformação das estruturas temporais na Modernidade. São Paulo: UNESP. [ Links ]

Siqueira, O. S. & Bronsztein, K. (2015). Jogos sociais e publicidade: refletindo sobre os quatro níveis de engajamento digital do consumidor. Culturas Midiáticas, 14. Retirado de http://periodicos.ufpb.br/index.php/cm/article/view/24711Links ]

Tarde, G. (1978). As Leis da imitação. Porto: Rés Editora. [ Links ]

Tarde, G. (1992). A opinião e as massas. São Paulo: Martins fontes. [ Links ]

Turing, A. (2007). Computing machinery and intelligence. New York Times. Retirado de https://archive.nytimes.com/www.nytimes.com/library/cyber/surf/1106surf-turing.htmlLinks ]

Vattimo, G. (1987). O Fim da Modernidade - Niilismo e Hermenêutica na Cultura Pós-Moderna. Lisboa: Editorial Presença. [ Links ]

Virilio, P. (2001). A velocidade de libertação. Relógio d'Água. [ Links ]

Veloso, A. M. (2020, 3 de outubro). Fake news não é ignorância, mas uma forma de revolta social, diz Safatle. Huffpost Brasil. Retirado de https://www.huffpostbrasil.com/entry/fake-news-ignorancia-vladimir-safatle_br_5f739ec3c5b6374c5585b79b?fbclidLinks ]

Watson, J. (1913). Psychology as the behaviorist views it. Psychological Review, 20 (2): 158-177. DOI:10.1037/h0074428 [ Links ]

1 É importante não misturar machine learning (ML) com inteligência artificial (IA). A IA, tida como uma primeira grande ideia, nasce nas conferências de Darmouth em 1956. Por seu turno, o machine learning surge como modo de atingir uma base inicial de modo a possibilitar a criação de conteúdo para a IA. Por outras palavras, digamos que o ML é um meio, que se situa no seio do paradigma behaviorista e em que existe um jogo entre estímulos e respostas que avança em função das dinâmicas responsivas oferecidas pelo sujeito (Turing, 2007; Copeland, 2004). E a IA situa-se numa perspetiva mais conectivista e associativista, na medida em que visa construir subjetividades próprias a partir do ML, autonomizando-se, posteriormente, em saberes, vontades e predições sobre o sujeito com o qual interage (Luger, 2004).

Recebido: 16 de Abril de 2021; Aceito: 05 de Julho de 2021

Pedro Costa, pcosta7780@gmail.com

Creative Commons License Este é um artigo publicado em acesso aberto sob uma licença Creative Commons