Em uma civilização de dados, algoritmos e ciborgues, ainda estamos descobrindo como traçar uma conversa entre direitos humanos e tecnologia na atualidade. Há espaço para estes direitos no século XXI?

Por Michele Bravos, para o Instituto Aurora

Viver na civilização dos dados nos aponta para caminhos pouco explorados pela humanidade e, por isso, cheio de questionamentos e lacunas. Para iniciarmos essa conversa entre direitos humanos e tecnologia, esse artigo vai te apresentar algumas informações em torno de três perguntas:

  1. Quanto valem os seus dados?
  2. O que ou quem está por trás dos algoritmos?
  3. Ciborgues já existem?

Publicado em 20/08/2020.

Quanto valem os seus dados?

Nessa civilização, os dados são a grande moeda de troca e vale nos perguntarmos pelo o que esses dados estão sendo trocados. Quando compartilhamos nosso hábitos na internet em troca de relacionamentos – e, às vezes, por likes – ou autorizamos a geolocalização em nossos smartphones em troca da comodidade de saber que comércios estão abertos na região, a nossa privacidade está em jogo. Isso ficou ainda mais evidente a partir de escândalos envolvendo o Google e propósitos militares e vazamento de dados do Facebook que podem ter alterado os resultados das eleições nos EUA em 2016.

Além da privacidade, talvez a nossa própria liberdade também esteja em jogo.

Toda a publicidade que nos impacta na internet parece tão assertiva não por acaso, mas porque os nossos dados compartilhados voluntariamente por nós foram transformados em informações valiosas para nos segmentar e nos tornar mais atrativos para a indústria do marketing digital. No momento em que deixamos de nos perguntar e buscar o que queremos, e passamos a uma postura mais reativa ao que nos é tão facilmente apresentado em um anúncio online, nossa liberdade corre perigo. 

Não há como falar da nossa prostração diante dos dados sem falar do historiador Yuval Harari, que define que os dados podem ser o elemento criador de uma nova religião em nossa sociedade: o dataism ou dataísmo. Assim como aqueles que são cristãos, budistas, muçulmanos, de religiões africanas e tantas outras possuem e seguem um sistema de crenças que guia seus comportamentos, com o dataísmo não é diferente. Ele sugere que nossos valores e comportamentos já estão sendo influenciados e pautados pela dinâmica em torno da coleta, compartilhamento, comercialização e uso dos dados.

O que ou quem está por trás dos algoritmos?

A cultura da informação em que estamos inseridos pode servir para a erradicação das desigualdades sociais, no entanto, da mesma forma ela também tem potencial para continuar perpetuando preconceitos e violações de direitos. O que, então, define o caminho a ser construído?

Para a pesquisadora Safyia Nobles, professora associada na Universidade da Califórnia, em Los Angeles, no Departamento de Estudos da Informação, nós – sociedade civil – precisamos estar cientes dos impactos da internet em nossas vidas, assim como das nossas atividades no ambiente online. Safyia é conhecida pelo seu trabalho interdisciplinar e sociológico, acerca das consequências da mídia digital e suas intersecções com raça, gênero, cultura e tecnologia. Ela é também autora do livro Algorithms of Oppression: How Search Engines Reinforce Racism (Algoritmos da Opressão: Como sistemas de busca reforçam o racismo), no qual nos apresenta a sua vasta pesquisa sobre como os algoritmos, ou seja, uma combinação de dados, pode reproduzir padrões preconceituosos na internet e em inovações tecnológicas, impedindo-nos de romper com uma cultura desigual naturalizada em nossa sociedade. 

Dinah PoKempner, conselheira geral da Human Rights Watch (HRW), lembra-nos que a civilização dos dados, que impulsiona o diálogo entre direitos humanos e tecnologia, se estabelece em um mundo de preconceitos, pobreza e injustiças.

Logo, dados incompletos ou que emitem preconceitos reforçam a discriminação, tanto no âmbito interpessoal quanto em esferas de tomadas de decisões com interferência na vida de cidadãos e cidadãs.

A pesquisadora nos chama atenção para duas causas desse problema: a primeira é a falta de representatividade na área de tecnologia; e a segunda é a falta de regulamentação ética em especial em torno do machine learning – que é quando novos algoritmos se formam a partir de outros algoritmos pré-determinados, algo como a máquina aprendendo com a própria máquina, sem interferência humana no decorrer do processo. 

Vamos pensar nos sites de busca. Esse espaço são como espelhos do sistema de crenças dos usuários. Safyia relata em seu livro as vezes em que buscou pelo termo “black girls” (meninas negras) no Google, o maior site de buscas do mundo. Os resultados foram assustadores, associados quase sempre à pornografia e à objetificação da menina e da mulher negra. 

Nesse caso é necessário pensar quem lê meninas negras dessa forma. Seriam as próprias meninas negras? Difícil! Mais provável que seja um grupo hegemônico e poderoso financeiramente que possui uma leitura preconceituosa sobre tais meninas e que tem vantagens em construir e sustentar esse estereótipo. 

Ainda sobre esse exemplo, quando a máquina aprende com a própria máquina sobre “meninas negras” é majoritariamente um conteúdo preconceituoso que define esse termo e essas vidas. Posteriormente, tais dados podem ser utilizados de forma indevida, classificando meninas negras como inadequadas para compor determinada comunidade online ou mesmo adentrar determinados espaços offline, uma vez que suas histórias, em dados, se resumem a corpos objetificados, destinados ao prazer sexual de outros.

Com o tempo, o machine learning pode nos fazer perder a fé em nossa habilidade de discernir a verdade, como afirma a conselheira da HRW Dinah. Ela ainda sugere que sem ninguém para  assumir a responsabilidade por decisões erradas e posturas violadoras, será quase impossível reivindicar pela garantia de direitos humanos. 

O que Safyia afirma é que, a menos que o Google – site em questão – determine mecanismos para ordenar os resultados de sites e imagens com uma outra lógica – uma lógica ética – preconceitos serão perpetuados e teremos consequências graves quanto a isso. 

Ciborgues já existem?

Você já se pegou perguntando “onde começa o humano e termina a máquina?”. Esta é uma questão que nos confronta na leitura do livro Antropologia do ciborgue, no artigo do pesquisador Tomaz Tadeu, professor colaborador no Programa de Pós-Graduação em Educação, da Universidade Federal do Rio Grande do Sul. Para ele, essa talvez seja uma das questões mais importantes do nosso tempo. 

Diferente de discutir sobre os meios de comunicação como extensão de nossos corpos, como apontava Mac Luchan nos anos 1970, agora a discussão subiu para outro patamar. Por exemplo, quando a câmera fotográfica surgiu, uma inovação tecnológica do século XIX, falávamos do quanto esse aparelho representava a extensão dos nossos olhos humanos, inclusive porque ela foi criada inspirada neles. Agora, no ponto em que estamos, devemos discutir sobre câmeras de captura de imagens que podem ser implantadas no lugar de um olho humano e as consequências dessa nova condição humana. Como é o caso de Rob Spence, conhecido como Eyeborg. Esse novo humano que é parte orgânico e parte artificial pode ser chamado de ciborgue. 

Se por um lado, o humano passa por um processo de eletrificação, por outro, a máquina parece estar sendo humanizada, como afirma Tadeu. Para ele, o ciborgue representa muito bem esse nosso momento atual, em que vivemos a pós-modernidade, a pós-verdade.

O ciborgue é a representação do pós-humano. 

No entanto, um ciborgue não é apenas um humano com elementos elétricos, feitos de silício – matéria-prima básica de circuitos eletrônicos e chips -, em seu corpo. Hari Kunzru, um jornalista e escritor nascido em Londres, de pai indiano e mãe britânica, é um brilhante questionador do nosso tempo e é ele quem nos provoca a pensar sobre os melhoramentos que vêm sendo feitos em corpos humanos até antes mesmo da crescente tecnológica do século XXI. Como exemplo, ele cita os alimentos energéticos para bodybuilding e os equipamentos esportivos, como calçados e roupas para atletas de elite, nos apontando para a concepção do corpo humano como uma máquina de alta performance. 

É nesse contexto de humanos melhorados – seja com elementos elétricos implantados ao corpo ou com produtos que podem ser adquiridos, consumidos, alterando a estrutura corporal – que, em uma conversa entre Kunzru e Donna Haraway entendemos que a tecnologia não é neutra. Donna Haraway é bióloga, professora de História da Consciência na Universidade da Califórnia, em Santa Cruz, e feminista. Seu trabalho mais famoso é o Manifesto ciborgue, texto também presente no livro Antropologia do ciborgue

Haraway contesta a neutralidade da tecnologia lembrando que, ao mesmo tempo que fazemos parte daquilo que temos criado, o que temos criado também tem feito parte de nós. No entanto, essa conexão não é inclusiva, deixando algumas pessoas à margem dessa rede. É aí que ela nos provoca a pensar sobre quem vive e quem morre na tecnocultura. 

A reflexão em torno dos ciborgues ou dos pós-humanos ou ainda dos transhumanos, necessariamente passa pelo entendimento do corpo humano como parte formadora de nossa identidade, de nossa humanidade – tanto quanto as nossas experiências e a nossa ancestralidade. 

No livro Homo Deus: uma breve história do amanhã, Yuval Harari, afirma que a maneira como o corpo humano tem sido lido desde o começo do século XXI aponta para uma medicina mais preocupada em melhorar os saudáveis do que em curar os doentes, visto que o desejo desse tempo está muito mais associado com a busca pela imortalidade do que pela sobrevivência. O que não muda em nada os problemas sociais em torno de pessoas que literalmente sobrevivem um dia após o outro. 

Portanto, em uma sociedade em que podem existir humanos melhorados, enquanto outros permanecem tentando sobreviver, é fundamental perguntar quem pode ou poderia ser beneficiado por essas inovações? Elas diminuiriam ou aumentariam as desigualdades já existentes entre os seres humanos?

Três ações que cabem a você nesta conversa entre direitos humanos e tecnologia

O cenário apresentado aqui neste artigo pode parecer fatalista ou distante, mas a verdade é que ele já é uma realidade no século XXI e o que viveremos daqui para frente serão desdobramentos e avanços dessas perspectivas abordadas aqui. 

De forma alguma queremos dizer que esses novos caminhos são ou serão ruins e nem encabeçaremos um movimento para parar o crescimento tecnológico, mas  pautamos esse debate com o intuito de estimular o senso crítico e o diálogo. 

Ao passo que as grandes empresas de tecnologia, como Google e Facebook, movem-se rapidamente, nós – sociedade – precisamos estar cientes do jogo que está sendo jogado e que papel nós estamos – ou não – desenvolvendo nele. 

Com base nos pensamentos das pesquisadoras e pesquisadores apresentados aqui nesse artigo, apontamos três ações que devem nos orientar quando o assunto é direitos humanos e tecnologia no século XXI. 

  1. Exigir transparência 

A transparência na gestão dos dados pode ser uma forma de mitigar a reprodução de preconceitos, com testes ou auditoria do processo de machine learning, sendo possível sugerir correções no percurso. A exigência de um processo transparente também diz respeito à cobrança por políticas públicas regulatórias da internet e das inovações tecnológicas, que definam padrões éticos.

  1. Encorajar o aperfeiçoamento humano

A solução para posturas humanas inadequadas não está na substituição de humanos por máquinas ou ainda na redução do trabalho humano. No entanto, devemos enxergar o aperfeiçoamento humano como um caminho. Por aperfeiçoamento podemos entender o desenvolvimento do senso crítico, de habilidades relacionadas à inteligência emocional, e uma maior compreensão de corresponsabilidade em um mundo em que coexistimos. 

  1. Entender que tecnologia também é uma questão de direitos humanos

Direitos humanos, enquanto direitos que garantem vida digna a todas as pessoas, está diretamente conectado com a pauta das inovações tecnológicas do século XXI. Enquanto existir humanos, existirá direitos humanos. Devemos nos preocupar com a ética – ou a falta dela – na gestão de dados, no desenvolvimento de algoritmos e na convivência com ciborgues. Todos esses elementos nos levam, em alguma medida, para as perguntas: quem vive? Quem merece viver? Em que condições? E, portanto, todas são pautas de direitos humanos. 

Na tentativa de continuarmos construindo um mundo mais justo socialmente, dialogar sobre as novas tecnologias no século XXI e a sua relação com humanos e, portanto, com direitos humanos, é urgente e fundamental. 

A redução das desigualdades sociais pode acontecer de forma impressionante neste século se humanos e máquinas trabalharem juntos, com o melhor potencial de cada um e, o principal, de forma ética. Ainda há muito espaço para direitos humanos no século XXI. 

Algumas referências que utilizamos para escrever sobre direitos humanos e tecnologia (e que vale a pena ler!)

Antropologia do ciborgue : as vertigens do pós-humano / organização e tradução Tomaz Tadeu – 2. ed. – Belo Horizonte : Autêntica Editora, 2009.

NOBLE, S. U. Algorithms of Oppression: how search engines reinforce racism. NYU Press, 2018.

POKEMPNER, Dinah. Can algorithms save us from human error. Disponível em: <https://www.hrw.org/world-report/2019/essay/can-algorithms-save-us-from-human-error>. Acesso em: 10 maio. 2020. 

Para mais conversas sobre direitos humanos e tecnologia, continue acompanhando o blog! 

Acompanhe o Instituto Aurora nas redes sociais: Instagram | Facebook | Linkedin | Youtube

Pontes ou muros: o que você têm construído?
Em um mundo de desconstrução, sejamos construtores. Essa ideia foi determinante para o surgimento do Instituto Aurora e por isso compartilhamos essa mensagem. Em uma mescla de história de vida e interação com o grupo, são apresentados os princípios da comunicação não-violenta e da possibilidade de sermos empáticos, culminando em um ato simbólico de uma construção coletiva.
Pontes ou muros: o que você têm construído?
Em um mundo de desconstrução, sejamos construtores. Essa ideia foi determinante para o surgimento do Instituto Aurora e por isso compartilhamos essa mensagem. Em uma mescla de história de vida e interação com o grupo, são apresentados os princípios da comunicação não-violenta e da possibilidade de sermos empáticos, culminando em um ato simbólico de uma construção coletiva.
Quem é você na Década da Ação?
Sabemos que precisamos agir no presente para viver em um mundo melhor amanhã. Mas, afinal, o que é esse mundo melhor? É possível construí-lo? Quem fará isso? De forma dinâmica e interativa, os participantes serão instigados a pensar em seu sistema de crenças e a vivenciarem o conceito de justiça social. Cada pessoa poderá reconhecer suas potencialidades e assumir a sua autorresponsabilidade.
Quem é você na Década da Ação?
Sabemos que precisamos agir no presente para viver em um mundo melhor amanhã. Mas, afinal, o que é esse mundo melhor? É possível construí-lo? Quem fará isso? De forma dinâmica e interativa, os participantes serão instigados a pensar em seu sistema de crenças e a vivenciarem o conceito de justiça social. Cada pessoa poderá reconhecer suas potencialidades e assumir a sua autorresponsabilidade.
A vitória é de quem?
Nessa palestra permeada pela visão de mundo delas, proporcionamos um espaço para dissipar o medo sobre palavras como: feminismo, empoderamento feminino e igualdade de gênero. Nosso objetivo é mostrar o quanto esses termos estão associados a grandes avanços que tivemos e ainda podemos ter - em um mundo em que todas as pessoas ganhem.
A vitória é de quem?
Nessa palestra permeada pela visão de mundo delas, proporcionamos um espaço para dissipar o medo sobre palavras como: feminismo, empoderamento feminino e igualdade de gênero. Nosso objetivo é mostrar o quanto esses termos estão associados a grandes avanços que tivemos e ainda podemos ter - em um mundo em que todas as pessoas ganhem.
Liberdade de pensamento: você tem?
As projeções para o século XXI apontam para o exponencial crescimento da inteligência artificial e da sua presença em nosso dia a dia. Você já se perguntou o que as máquinas têm aprendido sobre a humanidade e a vida em sociedade? E como isso volta para nós, impactando a forma como lemos o mundo? É tempo de discutir que tipo de dados têm servido de alimento para os robôs porque isso já tem influenciado o futuro que estamos construindo.
Liberdade de pensamento: você tem?
As projeções para o século XXI apontam para o exponencial crescimento da inteligência artificial e da sua presença em nosso dia a dia. Você já se perguntou o que as máquinas têm aprendido sobre a humanidade e a vida em sociedade? E como isso volta para nós, impactando a forma como lemos o mundo? É tempo de discutir que tipo de dados têm servido de alimento para os robôs porque isso já tem influenciado o futuro que estamos construindo.
Formações customizadas
Nossas formações abordam temas relacionados à compreensão de direitos humanos de forma interdisciplinar, aplicada ao dia a dia das pessoas - sejam elas de quaisquer áreas de atuação - e ajustadas às necessidades de quem opta por esse serviço.
Formações customizadas
Nossas formações abordam temas relacionados à compreensão de direitos humanos de forma interdisciplinar, aplicada ao dia a dia das pessoas - sejam elas de quaisquer áreas de atuação - e ajustadas às necessidades de quem opta por esse serviço.
Consultoria em promoção de diversidade
Temos percebido um movimento positivo de criação de comitês de diversidade nas instituições. Com a consultoria, podemos traçar juntos a criação desses espaços de diálogo e definir estratégias de como fortalecer uma cultura de garantia de direitos humanos.
Consultoria em promoção de diversidade
Temos percebido um movimento positivo de criação de comitês de diversidade nas instituições. Com a consultoria, podemos traçar juntos a criação desses espaços de diálogo e definir estratégias de como fortalecer uma cultura de garantia de direitos humanos.
Minha empresa quer doar

    Minha empresa quer doar
    [caldera_form id="CF5f3eb06356163"]
    Depoimento de professora de Campo Largo
    Em 2022, nosso colégio foi ameaçado de massacre. Funcionárias acharam papel em que estava escrito o dia e a hora que seria o massacre (08/11 às 11h). Também tinha recado na porta interna dos banheiros feminino e masculino. Como gestoras, fizemos o boletim de ocorrência na delegacia e comunicamos o núcleo de educação. A partir desta ação, todos as outras foram coordenadas pela polícia e pelo núcleo. No ambiente escolar gerou um pânico. Alunos começaram a ter diariamente ataque de ansiedade e pânico. Muitos pais já não enviavam os filhos para o colégio. Outros pais da comunidade organizaram grupos paralelos no whatsapp, disseminado mais terror e sugestões de ações que nós deveríamos tomar. Recebemos esporadicamente a ronda da polícia, que adentrava no colégio e fazia uma caminhada e, em seguida, saía. Foram dias de horror. No dia da ameaça, a guarda municipal fez campana no portão de entrada e tivemos apenas 56 alunos durante os turnos da manhã e tarde. Somente um professor não compareceu por motivos psicológicos. Nenhum funcionário faltou. Destacamos que o bilhete foi encontrado no banheiro, na segunda-feira, dia 31 de outubro de 2022, após o segundo turno eleitoral. Com isto, muitos estavam associando o bilhete com caráter político. A polícia descartou essa possibilidade. Enfim, no dia 08, não tivemos nenhuma ocorrência. A semana seguinte foi mais tranquila. E assim seguimos. Contudo, esse é mais um trauma na carreira para ser suportado, sem nenhum olhar de atenção e de cuidado das autoridades. Apenas acrescentamos outras ameaças (as demandas pedagógicas) e outros medos.
    Depoimento de professora de Campo Largo
    Em 2022, nosso colégio foi ameaçado de massacre. Funcionárias acharam papel em que estava escrito o dia e a hora que seria o massacre (08/11 às 11h). Também tinha recado na porta interna dos banheiros feminino e masculino. Como gestoras, fizemos o boletim de ocorrência na delegacia e comunicamos o núcleo de educação. A partir desta ação, todos as outras foram coordenadas pela polícia e pelo núcleo. No ambiente escolar gerou um pânico. Alunos começaram a ter diariamente ataque de ansiedade e pânico. Muitos pais já não enviavam os filhos para o colégio. Outros pais da comunidade organizaram grupos paralelos no whatsapp, disseminado mais terror e sugestões de ações que nós deveríamos tomar. Recebemos esporadicamente a ronda da polícia, que adentrava no colégio e fazia uma caminhada e, em seguida, saía. Foram dias de horror. No dia da ameaça, a guarda municipal fez campana no portão de entrada e tivemos apenas 56 alunos durante os turnos da manhã e tarde. Somente um professor não compareceu por motivos psicológicos. Nenhum funcionário faltou. Destacamos que o bilhete foi encontrado no banheiro, na segunda-feira, dia 31 de outubro de 2022, após o segundo turno eleitoral. Com isto, muitos estavam associando o bilhete com caráter político. A polícia descartou essa possibilidade. Enfim, no dia 08, não tivemos nenhuma ocorrência. A semana seguinte foi mais tranquila. E assim seguimos. Contudo, esse é mais um trauma na carreira para ser suportado, sem nenhum olhar de atenção e de cuidado das autoridades. Apenas acrescentamos outras ameaças (as demandas pedagógicas) e outros medos.