"A profissão médica tem uma ética: antes de tudo, não ferir. O Vale
do Silício tem uma regra: primeiro fazer, depois pedir perdão." Com essas palavras Natasha
Singer inicia a reportagem espalhada pela postagem anterior, e eu inicio estas reflexões. Reflexões que
prosseguem com a lembrança de uma sugestão de Cathy O'Neill e Virginia Eubanks para evitar os
efeitos perversos oriundos da proliferação do uso de algoritmos, citada por
Gillian Tett em Algoritmos
e desigualdade : "Exigir
que os tecnólogos façam algo parecido com o julgamento de Hipócrates, de 'em primeiro lugar, fazer o bem'.". Será que a referida sugestão está em
sintonia com o que pretendem as universidades americanas citadas na reportagem de Natasha Singer?
"O Vale do Silício tem
uma regra: primeiro fazer, depois pedir perdão.", diz Natasha Singer. Regra fundamentada em "uma
atitude comum no Vale do Silício: a de considerar a ética como um entrave à
inovação." Atitude que três professores
da Universidade de Stanford, o coração acadêmico do Vale do Silício, juntamente
com um pesquisador resolveram desafiar desenvolvendo um curso de ética
em Ciências da Computação para começar a partir de 2019.
"A idéia é treinar a
próxima geração de especialistas em tecnologia – e também legisladores – para
considerar o lado obscuro de inovações.",
diz Natasha Singer. "Trata-se de descobrir ou identificar pontos
com os quais, nos próximos anos, os estudantes aqui formados vão se
defrontar", disse Mehram Sahami, professor de Ciências da Computação da
Universidade de Stanford. "A tecnologia não é neutra", disse Sahami,
que já trabalhou no Google, como cientista pesquisador. "As escolhas
feitas na adoção de tecnologia têm ramificações sociais."
E ao dizer que "A tecnologia não é neutra"
e que "As escolhas feitas na adoção de tecnologia têm ramificações
sociais.", Sahami me faz lembrar algo dito pela jornalista Érica Fraga em
uma reportagem intitulada Obra discute
riscos de tecnologia aumentar a desigualdade, publicada na edição de 02 de
abril de 2018 do jornal Folha de S.Paulo.
"Para entender os rumos que tomamos, dizem Klaus Schwab e Nicholas Davis – respectivamente, o fundador e o responsável por inovação do Fórum Econômico Mundial, autores do livro 'Aplicando a Quarta Revolução Industrial', é importante reconhecer duas visões enganosas.
A primeira é a crença de que a tecnologia determina o futuro. A segunda está ligada à ideia de que ela seja desprovida de valores e, portanto, totalmente influenciada pelo caráter moral dos seus usuários, e não de seus desenvolvedores ou difusores.
'Os dois argumentos esquecem que tecnologia e sociedade se moldam uma à outra', ressaltam os autores."
Ou seja, na contramão do que tanto se apregoa,
eis que surge alguém com coragem suficiente para afirmar abertamente que
"A tecnologia não é neutra". E também alguém que não tão abertamente
afirma a mesma coisa. Vocês concordam que ao "reconhecer como visão
enganosa a ideia de que a tecnologia seja desprovida de valores e, portanto,
totalmente influenciada pelo caráter moral dos seus usuários, e não de seus
desenvolvedores ou difusores", Schwab e Davis também estão afirmando que a
"A tecnologia não é neutra"?
E as advertências sobre
o lado negativo da tecnologia não param por aí. "Temos de ensinar às
pessoas que há um lado negativo na ideia de 'avançar sempre, mesmo quebrando
coisas'", diz Laura Norén, pós-doutoranda do Centro de Ciência de Dados da
Universidade de Nova York, que leciona em um novo curso de ética em Ciência de
Dados.
"Um dos motivos para as universidades
estarem investindo em ética é a popularização de tecnologias poderosas, como o
aprendizado de máquina. Tratam-se de algoritmos que podem aprender de modo
autônomo a executar tarefas a partir da análise de grandes volumes de dados. Como
tais ferramentas podem, em última análise, modificar a sociedade, as
universidades se apressam a fazer os estudantes entenderem as potenciais
consequências.", diz Natasha Singer. E ao dizer que, "em última
análise, tais ferramentas podem modificar a sociedade", Natasha leva-me a repetir
algumas coisas já ditas acima.
"Os dois argumentos esquecem que
tecnologia e sociedade se moldam uma à outra", ressaltam Klaus Schwab e
Nicholas Davis. Os dois argumentos, fundamentados em duas visões enganosas,
segundo Schwab e Davis, foram citados no quinto parágrafo acima. "As
escolhas feitas na adoção de tecnologia têm ramificações sociais.", diz Mehram
Sahami, professor de Ciências da Computação da Universidade de Stanford, em
afirmação citada no oitavo parágrafo acima.
Em um curso da Universidade Cornell, a
professora Karen Levy direciona a discussão ética para o papel das empresas,
não dos profissionais. "Muitas decisões éticas têm a ver com as escolhas
que uma empresa faz: que produtos vai desenvolver, como lidará com os dados
pessoais de seus usuários", disse Karen. "Se o treinamento ético se
concentrar inteiramente na responsabilidade individual do cientista de dados,
há o risco de o papel da empresa ser subestimado."
Será que ao dizer que "Muitas decisões
éticas têm a ver com as escolhas que uma empresa faz" a professora Karen
Levy é mais uma pessoa a concordar com a afirmação de que "A tecnologia
não é neutra"? E as indagações continuam!
Será que faz sentido a
afirmação de Karen Levy de que "Se o treinamento ético se concentrar
inteiramente na responsabilidade individual do cientista de dados, há o risco
de o papel da empresa ser subestimado."? Será que subestimar o papel da empresa
faz algum sentido? E ao falar em papel da empresa, o método das recordações
sucessivas me traz-me à mente algo que li em um livro intitulado Magia & Gestão, de Geraldo R. Caravantes e Wesley E. Bjur.
"A boa sociedade não é uma dádiva, mas trata-se de um processo de construção coletivo, em que as boas organizações (lembre-se de que vivemos em uma sociedade organizacional) serão seus esteios. Por outro lado, entendem os autores que estas ficções legais, que chamamos organizações, são decorrência, por sua vez, de indivíduos que nelas atuam e, muito especialmente de suas lideranças. Ou, raciocinando pelo inverso: não vemos como obter uma sociedade saudável sem organizações saudáveis; nem tampouco organizações com alto desempenho, povoadas por indivíduos infelizes, subutilizados, impossibilitados de preencherem seu potencial. Entendemos e compartilhamos a visão de Aldous Huxley de que 'o objetivo da vida humana é concretizar potencialidades individuais ao máximo de seus limites'."
Ou seja, "A boa sociedade precisa de boas
organizações, pois não há como obter uma sociedade saudável sem
organizações saudáveis; nem tampouco organizações com alto desempenho, povoadas
por indivíduos infelizes, subutilizados, impossibilitados de preencherem seu
potencial.".
Potencial que jamais será totalmente preenchido enquanto os indivíduos
não compreenderem que aquilo que é denominado ética médica - "antes de tudo, não ferir" –,
conforme enuncia Natasha Singer, na primeira frase desta postagem ou - "em
primeiro lugar, fazer o bem"
-, conforme enunciam Cathy O'Neill e Virginia Eubanks em Algoritmos
e desigualdade, é algo cuja imprescindibilidade da prática abrange não apenas
os programadores (para quem algumas universidades dos EUA tentam levá-la), mas
também todo e qualquer indivíduo que "acredite que a qualidade de uma
sociedade é resultado das ações de todos os seus componentes".
Nenhum comentário:
Postar um comentário