Existe alguma solução? Cathy O'Neill
e Virginia Eubanks sugerem que uma opção seria exigir que os tecnólogos façam
algo parecido com o julgamento de Hipócrates, de "em primeiro lugar, fazer
o bem". (...) Uma terceira ideia seria assegurar
que as pessoas que estão criando e rodando programas de computador sejam
forçadas a pensar na cultura, em seu sentido mais amplo. (...) A computação há
muito é percebida com uma zona livre de cultura e isso precisa mudar. Os grifos
são meus.
Pela terceira vez consecutiva, as palavras que
compõem o parágrafo acima são apresentadas neste blog. A primeira vez na
postagem Algoritmos
e desigualdade. A segunda em Reflexões
provocadas por "Algoritmos e desigualdade", em uma espécie de
reapresentação no desfile das campeãs. A terceira nesta postagem que, pela
coincidência explicada no próximo parágrafo, tomou o lugar daquela que
sucederia a citada na frase anterior.
Ao encontrar na edição de 01 de abril de 2018
(domingo próximo passado) do jornal O Estado de S. Paulo uma reportagem intitulada
Universidades dos EUA tentam trazer ética
dos médicos para programadores foi inevitável associá-la as referidas
palavras citadas nas duas postagens anteriores. Assinada por Natasha Singer a
reportagem traz a indicação de ter sido publicada no "The New York
Times", de ter sido traduzida por Roberto Muniz, e, no meu entender, tem
tudo a ver com o que é dito nas duas postagens anteriores.
*************
Universidades dos EUA
tentam trazer ética dos médicos para programadores
Professores
de cursos de computação e dados iniciam movimento para estimular estudantes a
refletirem sobre impactos negativos da tecnologia
A profissão médica tem uma ética: antes de
tudo, não ferir. O Vale do Silício tem uma regra: primeiro fazer, depois pedir
perdão. Hoje, porém, com as notícias falsas (fake news) e outros problemas que
atingem as gigantes de tecnologia, universidades que formaram alguns dos
maiores gênios do Vale estão se mexendo para trazer para a Ciência da
Computação um pouco da ética da Medicina. Neste semestre, a Universidade de
Harvard e o Massachusetts Institute of Technology (MIT) estão oferecendo em
conjunto um novo curso sobre ética e regulação da inteligência artificial.
O curso de ética desenvolvido em parceria pela
Universidade de Harvard e pelo MIT tem 30 alunos. Ele aborda ética, política e
implicações legais da inteligência artificial. Parte do curso é financiada por
um fundo para pesquisas em ética na inteligência artificial, que inclui
doadores como Reid Hoffman, cofundador do LinkedIn, e Pierre Omidyar, um dos
fundadores do eBay. O currículo também cobre os riscos dos rankings sociais
criados por algoritmos. Além disso, há reflexões sobre perguntas básicas como "A
tecnologia é sempre justa?" e "As máquinas deveriam julgar humanos?".
A Universidade do Texas, em Austin, também
acaba de lançar um curso intitulado "Fundamentos Éticos da Ciência da
Computação". A instituição pretende eventualmente integrá-lo a todos os
seus cursos. E, na Universidade de Stanford, o coração acadêmico do Vale do
Silício, três professores e um pesquisador estão desenvolvendo um curso de
ética em Ciências da Computação para começar a partir de 2019. A universidade espera
que centenas de estudantes se inscrevam.
Dilemas. A idéia é treinar a
próxima geração de especialistas em tecnologia – e também legisladores – para
considerar o lado obscuro de inovações, como armas que funcionam sozinhas ou
carros sem motoristas, antes que esses produtos cheguem ao mercado.
"Trata-se de descobrir ou identificar
pontos com os quais, nos próximos anos, os estudantes aqui formados vão se
defrontar", disse Mehram Sahami, professor de Ciências da Computação da
Universidade de Stanford. Ele ganhou fama no campus por levar o presidente executivo do Facebook, Mark
Zuckerberg, para conversar com os alunos todo ano.
"A tecnologia não é neutra", disse
Sahami, que já trabalhou no Google, como cientista pesquisador. "As
escolhas feitas na adoção de tecnologia têm ramificações sociais."
Os cursos surgem num
momento em que grandes empresas de tecnologia lutam para controlar seus efeitos
colaterais. Basta ver o Facebook, com o escândalo do uso ilícito de dados pela
Cambridge Analytica, a luta para acabar com contas falsas no Twitter e para
tirar do ar vídeos obscenos com crianças no YouTube. Esses professores
pretendem desafiar uma atitude comum no Vale do Silício: a de considerar a ética
como um entrave à inovação.
"Temos de ensinar
às pessoas que há um lado negativo na ideia de 'avançar sempre, mesmo quebrando
coisas'", diz Laura Norén, pós-doutoranda do Centro de Ciência de Dados da
Universidade de Nova York, que leciona em um novo curso de ética em Ciência de
Dados. "É possível consertar um software, mas não uma reputação destruída."
Cursos de ciência da
computação têm de garantir que os estudantes tenham conhecimento de normas
éticas relacionadas à computação para terem o aval do ABET, grupo internacional
de validação de programas universitários de Ciência e Engenharia. Em alguns
cursos, o tema é embutido em aulas mais abrangentes, enquanto em outras, são
abordados em cursos independentes.
No entanto, até
recentemente a ética não parecia relevante para muitos estudantes. "Comparada
à Medicina, a interação diária com a dor ou a morte é muito menor quando se
produz software", diz Joi Ito, diretor do Media Lab, do MIT.
Automação. Um dos motivos para
as universidades estarem investindo em ética é a popularização de tecnologias
poderosas, como o aprendizado de máquina. Tratam-se de algoritmos que podem
aprender de modo autônomo a executar tarefas a partir da análise de grandes
volumes de dados. Como tais ferramentas podem, em última análise, modificar a
sociedade, as universidades se apressam a fazer os estudantes entenderem as
potenciais consequências. "Uma vez que começamos a fazer coisas como
veículos autônomos, as pessoas estão ansiosas para criar um sistema ético."
No ano passado, a Universidade Cornell
introduziu um curso no qual os estudantes aprendem a enfrentar desafios éticos.
Eles têm de analisar um conjunto de dados tendenciosos, com poucos lares de
baixa renda, por exemplo, para entenderem que o banco de dados não é
representativo para o conjunto da população. Os alunos também debatem o uso de
algoritmos em decisões de vida, como contratar alguém ou escolher uma
universidade. "Procurei fazê-los entender os desafios que enfrentarão",
disse Solon Baroca, professor de Ciência da Informação que leciona no curso.
Em outro curso da Cornell, a professora Karen
Levy direciona a discussão ética para o papel das empresas, não dos
profissionais. "Muitas decisões éticas têm a ver com as escolhas que uma
empresa faz: que produtos vai desenvolver, como lidará com os dados pessoais de
seus usuários", disse Karen. "Se o treinamento ético se concentrar
inteiramente na responsabilidade individual do cientista de dados, há o risco
de o papel da empresa ser subestimado."
*************
Tentar trazer ética dos médicos para programadores! Será que é válida a
tentativa a que se propõem as referidas universidades dos EUA? Será que vale a
pena refletir sobre o que é dito na reportagem de Natasha Singer apresentada
acima?
Nenhum comentário:
Postar um comentário