quarta-feira, 18 de abril de 2018

Reflexão

Será que, diante da abundante publicação de postagens do tipo "Reflexões provocadas por ...", faz sentido publicar uma postagem focalizando o tema Reflexão? Será que, nestes tempos em que qualquer texto que excede 140 caracteres é considerado "textão", a imprescindibilidade da reflexão é algo sobre o qual a maioria das pessoas perdeu a noção? Será que faz algum sentido acreditar que é possível construir algo que faça jus ao termo civilização negligenciando as práticas do questionamento e da reflexão?
Pelo sim pelo não (embora não estejamos em um centro de depilação) que imagino que podem surgir em respostas às questões acima, creio que vale a pena dar uma lida no texto extraído do livro DiálogoRedescobrindo o Poder Transformador da Conversa de autoria de Linda Ellinor e Glenna Gerard e reproduzido a seguir.
Reflexão
refletir: devolver uma imagem, pensar cuidadosamente
- Funk And Wagnall Standard Dictionary
"E se você fizer mil perguntas e, entretanto, não parar para ouvir e refletir sobre o que surge em resposta, como aprenderá?"
- The Dialogue Group
O questionamento trata sobre fazer perguntas e manter uma atitude de curiosidade, abrindo a porta para novas percepções. A reflexão diz respeito a manter a porta aberta por tempo suficiente para que novas percepções aflorem.
A reflexão diz respeito a separar tempo para observar mais de um evento e pensar sobre as conexões entre eles, para formular as perguntas que o levarão ao próximo nível. A reflexão também diz respeito a reservar tempo para tentar ouvir a resposta da pergunta que emergir. Para que um reflexo claro se forme em uma poça d’água, a superfície deve estar parada. Quanto mais pudermos desenvolver esse tipo de quietude em nossas mentes, mais provavelmente poderemos fazer perguntas poderosas e ouvir as respostas em retorno.
O questionamento e a reflexão, combinados, nos ajudam a penetrar mais profundamente em quaisquer que sejam as questões importantes que nos preocupam, a ver novos padrões e maneiras de prosseguir.
Você já teve a experiência de ler um livro bem volumoso e dar graças a Deus por poder deixá-lo de lado quando bem entendesse? Ao contrário de assistir a uma palestra ou comparecer a uma reunião sobre alguma questão crítica, você pode se dar o luxo de parar e pensar sobre aquilo que esteve lendo. Às vezes, poderá até mesmo parar após um só parágrafo e pensar: "O que isso significa para mim?". "Como isso poderá mudar minha maneira de ver e fazer as coisas?". "Isso é realmente possível?".
Esse desejo de parar e pensar um pouco diz respeito à necessidade de reflexão. Quer esteja lendo um livro volumoso, quer esteja envolvido em uma conversação sobre a reorganização de seu departamento, pensar e responder eficazmente requer tempo para que aquilo que as pessoas estão dizendo seja assimilado. Somente então poderá refletir sobre o que ouve, desempenhar uma espécie de processo interno de inquirição ou questionamento e formular sua próxima pergunta ou afirmação. Sem isso, o proverbial 'entra por um ouvido e sai pelo outro' assume o comando.
Nos Estados Unidos, dá-se pouca atenção à reflexão. Na verdade, estatisticamente falando, nossa cultura ocidental é primariamente extrovertida, exteriorizada e falante. Por ser tão forte essa tendência extrovertida, passamos rapidamente de um assunto para outro, raramente parando para refletir ou fazer perguntas que nos ajudariam a penetrar águas mais profundas.
Também vivemos em uma cultura em que se espera que tenhamos respostas prontas e, com sorte, certas. Isso pode ser tão forte, que nos leva a falar com certeza sobre algo a respeito do qual podemos saber muito pouco. É claro que uma conversa em ritmo acelerado, com pouco silêncio entre os participantes, reduz a probabilidade de alguém pensar profundamente sobre o que estamos dizendo e nos desafiar.
A necessidade de termos uma resposta, de estarmos certos e de nos movermos rapidamente, influencia a maneira pela qual nos comunicamos e é contrária às condições de que necessitamos para uma conversação perceptiva, que fomente a reflexão e a aprendizagem.
"Vá mais devagar, você anda depressa demais. Você tem que fazer a manhã durar..."
A reflexão está diretamente relacionada ao ritmo da conversação. No diálogo, frequentemente há pausas, algumas bastante grandes, entre as pessoas que falam. As palavras são proferidas com maior deliberação; poderá até haver pausas entre frases. Para um observador, tudo pode parecer como se estivesse em câmara lenta.
O que está ocorrendo durante essas pausas entre as pessoas que falam? Por que são importantes? Para que ocorra a aprendizagem, novas informações têm que ser processadas. Isso envolve relacioná-las àquilo que já é conhecido, extraindo significado ou sentido dos novos dados pela conexão ao nosso sistema de conhecimento.
Esse processo é similar em indivíduos e grupos. O número de níveis em que somos capazes de estabelecer conexões depende da velocidade em que estamos nos movimentando. Com mais tempo, somos capazes de estabelecer conexões em níveis múltiplos, e nossa aprendizagem individual e coletiva se aprofunda. Ir mais devagar também nos dá a oportunidade de desligar nossos pilotos automáticos e responder mais eficazmente ao que está acontecendo em nosso redor.
*************
"Para que ocorra a aprendizagem, novas informações têm que ser processadas. Isso envolve relacioná-las àquilo que já é conhecido, extraindo significado ou sentido dos novos dados pela conexão ao nosso sistema de conhecimento.", afirmam Linda Ellinor e Glenna Gerard em seu livro.
Relacionar novas informações àquilo que já é conhecido! Vocês percebem nas postagens do tipo "Reflexões provocadas por ..." a prática de tal relacionamento? Será que esta postagem lhes possibilitará entenderem o porquê da abundância de postagens do tipo citado? Será que ela os (as) estimulará a refletirem mais sobre o que lêem e sobre o que ouvem?
Reflexões e questionamentos, eis duas coisas sem as quais, no meu entender, jamais se conseguirá construir uma sociedade que preste. Dito isto, para encerrar esta postagem em que é focalizada a reflexão, deixo-lhes a seguinte questão. Será que a afirmação feita pelo sociólogo e filósofo polonês Zygmunt Bauman [1925 – 2017] de que "Nenhuma sociedade que esquece a arte de questionar pode esperar encontrar respostas para os problemas que a afligem." faz sentido?
Considerando que encontrar respostas para os problemas que afligem uma sociedade é tarefa da qual nenhum dos que a compõem deve se eximir, meus desejos neste final de ano, digo, neste final de postagem, são de que cada um consiga refletir sobre a afirmação de Bauman e fazer seus próprios questionamentos.

quinta-feira, 12 de abril de 2018

Reflexões provocadas por "Universidades dos EUA tentam trazer ética dos médicos para programadores"

"A profissão médica tem uma ética: antes de tudo, não ferir. O Vale do Silício tem uma regra: primeiro fazer, depois pedir perdão." Com essas palavras Natasha Singer inicia a reportagem espalhada pela postagem anterior, e eu inicio estas reflexões. Reflexões que prosseguem com a lembrança de uma sugestão de Cathy O'Neill e Virginia Eubanks para evitar os efeitos perversos oriundos da proliferação do uso de algoritmos, citada por Gillian Tett em Algoritmos e desigualdade : "Exigir que os tecnólogos façam algo parecido com o julgamento de Hipócrates, de 'em primeiro lugar, fazer o bem'.". Será que a referida sugestão está em sintonia com o que pretendem as universidades americanas citadas na reportagem de Natasha Singer?
"O Vale do Silício tem uma regra: primeiro fazer, depois pedir perdão.", diz Natasha Singer. Regra fundamentada em "uma atitude comum no Vale do Silício: a de considerar a ética como um entrave à inovação." Atitude que três professores da Universidade de Stanford, o coração acadêmico do Vale do Silício, juntamente com um pesquisador resolveram desafiar desenvolvendo um curso de ética em Ciências da Computação para começar a partir de 2019.
"A idéia é treinar a próxima geração de especialistas em tecnologia – e também legisladores – para considerar o lado obscuro de inovações.", diz Natasha Singer. "Trata-se de descobrir ou identificar pontos com os quais, nos próximos anos, os estudantes aqui formados vão se defrontar", disse Mehram Sahami, professor de Ciências da Computação da Universidade de Stanford. "A tecnologia não é neutra", disse Sahami, que já trabalhou no Google, como cientista pesquisador. "As escolhas feitas na adoção de tecnologia têm ramificações sociais."
E ao dizer que "A tecnologia não é neutra" e que "As escolhas feitas na adoção de tecnologia têm ramificações sociais.", Sahami me faz lembrar algo dito pela jornalista Érica Fraga em uma reportagem intitulada Obra discute riscos de tecnologia aumentar a desigualdade, publicada na edição de 02 de abril de 2018 do jornal Folha de S.Paulo.
"Para entender os rumos que tomamos, dizem Klaus Schwab e Nicholas Davis – respectivamente, o fundador e o responsável por inovação do Fórum Econômico Mundial, autores do livro 'Aplicando a Quarta Revolução Industrial', é importante reconhecer duas visões enganosas.
A primeira é a crença de que a tecnologia determina o futuro. A segunda está ligada à ideia de que ela seja desprovida de valores e, portanto, totalmente influenciada pelo caráter moral dos seus usuários, e não de seus desenvolvedores ou difusores.
'Os dois argumentos esquecem que tecnologia e sociedade se moldam uma à outra', ressaltam os autores."
Ou seja, na contramão do que tanto se apregoa, eis que surge alguém com coragem suficiente para afirmar abertamente que "A tecnologia não é neutra". E também alguém que não tão abertamente afirma a mesma coisa. Vocês concordam que ao "reconhecer como visão enganosa a ideia de que a tecnologia seja desprovida de valores e, portanto, totalmente influenciada pelo caráter moral dos seus usuários, e não de seus desenvolvedores ou difusores", Schwab e Davis também estão afirmando que a "A tecnologia não é neutra"?
E as advertências sobre o lado negativo da tecnologia não param por aí. "Temos de ensinar às pessoas que há um lado negativo na ideia de 'avançar sempre, mesmo quebrando coisas'", diz Laura Norén, pós-doutoranda do Centro de Ciência de Dados da Universidade de Nova York, que leciona em um novo curso de ética em Ciência de Dados.
"Um dos motivos para as universidades estarem investindo em ética é a popularização de tecnologias poderosas, como o aprendizado de máquina. Tratam-se de algoritmos que podem aprender de modo autônomo a executar tarefas a partir da análise de grandes volumes de dados. Como tais ferramentas podem, em última análise, modificar a sociedade, as universidades se apressam a fazer os estudantes entenderem as potenciais consequências.", diz Natasha Singer. E ao dizer que, "em última análise, tais ferramentas podem modificar a sociedade", Natasha leva-me a repetir algumas coisas já ditas acima.
"Os dois argumentos esquecem que tecnologia e sociedade se moldam uma à outra", ressaltam Klaus Schwab e Nicholas Davis. Os dois argumentos, fundamentados em duas visões enganosas, segundo Schwab e Davis, foram citados no quinto parágrafo acima. "As escolhas feitas na adoção de tecnologia têm ramificações sociais.", diz Mehram Sahami, professor de Ciências da Computação da Universidade de Stanford, em afirmação citada no oitavo parágrafo acima.
Em um curso da Universidade Cornell, a professora Karen Levy direciona a discussão ética para o papel das empresas, não dos profissionais. "Muitas decisões éticas têm a ver com as escolhas que uma empresa faz: que produtos vai desenvolver, como lidará com os dados pessoais de seus usuários", disse Karen. "Se o treinamento ético se concentrar inteiramente na responsabilidade individual do cientista de dados, há o risco de o papel da empresa ser subestimado."
Será que ao dizer que "Muitas decisões éticas têm a ver com as escolhas que uma empresa faz" a professora Karen Levy é mais uma pessoa a concordar com a afirmação de que "A tecnologia não é neutra"? E as indagações continuam!
Será que faz sentido a afirmação de Karen Levy de que "Se o treinamento ético se concentrar inteiramente na responsabilidade individual do cientista de dados, há o risco de o papel da empresa ser subestimado."? Será que subestimar o papel da empresa faz algum sentido? E ao falar em papel da empresa, o método das recordações sucessivas me traz-me à mente algo que li em um livro intitulado Magia & Gestão, de Geraldo R. Caravantes e Wesley E. Bjur.
"A boa sociedade não é uma dádiva, mas trata-se de um processo de construção coletivo, em que as boas organizações (lembre-se de que vivemos em uma sociedade organizacional) serão seus esteios. Por outro lado, entendem os autores que estas ficções legais, que chamamos organizações, são decorrência, por sua vez, de indivíduos que nelas atuam e, muito especialmente de suas lideranças. Ou, raciocinando pelo inverso: não vemos como obter uma sociedade saudável sem organizações saudáveis; nem tampouco organizações com alto desempenho, povoadas por indivíduos infelizes, subutilizados, impossibilitados de preencherem seu potencial. Entendemos e compartilhamos a visão de Aldous Huxley de que 'o objetivo da vida humana é concretizar potencialidades individuais ao máximo de seus limites'."
Ou seja, "A boa sociedade precisa de boas organizações, pois não há como obter uma sociedade saudável sem organizações saudáveis; nem tampouco organizações com alto desempenho, povoadas por indivíduos infelizes, subutilizados, impossibilitados de preencherem seu potencial.".
Potencial que jamais será totalmente preenchido enquanto os indivíduos não compreenderem que aquilo que é denominado ética médica - "antes de tudo, não ferir" –, conforme enuncia Natasha Singer, na primeira frase desta postagem ou - "em primeiro lugar, fazer o bem" -, conforme enunciam Cathy O'Neill e Virginia Eubanks em Algoritmos e desigualdade, é algo cuja imprescindibilidade da prática abrange não apenas os programadores (para quem algumas universidades dos EUA tentam levá-la), mas também todo e qualquer indivíduo que "acredite que a qualidade de uma sociedade é resultado das ações de todos os seus componentes".

terça-feira, 3 de abril de 2018

Universidades dos EUA tentam trazer ética dos médicos para programadores

Existe alguma solução? Cathy O'Neill e Virginia Eubanks sugerem que uma opção seria exigir que os tecnólogos façam algo parecido com o julgamento de Hipócrates, de "em primeiro lugar, fazer o bem". (...) Uma terceira ideia seria assegurar que as pessoas que estão criando e rodando programas de computador sejam forçadas a pensar na cultura, em seu sentido mais amplo. (...) A computação há muito é percebida com uma zona livre de cultura e isso precisa mudar. Os grifos são meus.
Pela terceira vez consecutiva, as palavras que compõem o parágrafo acima são apresentadas neste blog. A primeira vez na postagem Algoritmos e desigualdade. A segunda em Reflexões provocadas por "Algoritmos e desigualdade", em uma espécie de reapresentação no desfile das campeãs. A terceira nesta postagem que, pela coincidência explicada no próximo parágrafo, tomou o lugar daquela que sucederia a citada na frase anterior.
Ao encontrar na edição de 01 de abril de 2018 (domingo próximo passado) do jornal O Estado de S. Paulo uma reportagem intitulada Universidades dos EUA tentam trazer ética dos médicos para programadores foi inevitável associá-la as referidas palavras citadas nas duas postagens anteriores. Assinada por Natasha Singer a reportagem traz a indicação de ter sido publicada no "The New York Times", de ter sido traduzida por Roberto Muniz, e, no meu entender, tem tudo a ver com o que é dito nas duas postagens anteriores.
*************
Universidades dos EUA tentam trazer ética dos médicos para programadores
Professores de cursos de computação e dados iniciam movimento para estimular estudantes a refletirem sobre impactos negativos da tecnologia
A profissão médica tem uma ética: antes de tudo, não ferir. O Vale do Silício tem uma regra: primeiro fazer, depois pedir perdão. Hoje, porém, com as notícias falsas (fake news) e outros problemas que atingem as gigantes de tecnologia, universidades que formaram alguns dos maiores gênios do Vale estão se mexendo para trazer para a Ciência da Computação um pouco da ética da Medicina. Neste semestre, a Universidade de Harvard e o Massachusetts Institute of Technology (MIT) estão oferecendo em conjunto um novo curso sobre ética e regulação da inteligência artificial.
O curso de ética desenvolvido em parceria pela Universidade de Harvard e pelo MIT tem 30 alunos. Ele aborda ética, política e implicações legais da inteligência artificial. Parte do curso é financiada por um fundo para pesquisas em ética na inteligência artificial, que inclui doadores como Reid Hoffman, cofundador do LinkedIn, e Pierre Omidyar, um dos fundadores do eBay. O currículo também cobre os riscos dos rankings sociais criados por algoritmos. Além disso, há reflexões sobre perguntas básicas como "A tecnologia é sempre justa?" e "As máquinas deveriam julgar humanos?".
A Universidade do Texas, em Austin, também acaba de lançar um curso intitulado "Fundamentos Éticos da Ciência da Computação". A instituição pretende eventualmente integrá-lo a todos os seus cursos. E, na Universidade de Stanford, o coração acadêmico do Vale do Silício, três professores e um pesquisador estão desenvolvendo um curso de ética em Ciências da Computação para começar a partir de 2019. A universidade espera que centenas de estudantes se inscrevam.
Dilemas. A idéia é treinar a próxima geração de especialistas em tecnologia – e também legisladores – para considerar o lado obscuro de inovações, como armas que funcionam sozinhas ou carros sem motoristas, antes que esses produtos cheguem ao mercado.
"Trata-se de descobrir ou identificar pontos com os quais, nos próximos anos, os estudantes aqui formados vão se defrontar", disse Mehram Sahami, professor de Ciências da Computação da Universidade de Stanford. Ele ganhou fama no campus por levar o presidente executivo do Facebook, Mark Zuckerberg, para conversar com os alunos todo ano.
"A tecnologia não é neutra", disse Sahami, que já trabalhou no Google, como cientista pesquisador. "As escolhas feitas na adoção de tecnologia têm ramificações sociais."
Os cursos surgem num momento em que grandes empresas de tecnologia lutam para controlar seus efeitos colaterais. Basta ver o Facebook, com o escândalo do uso ilícito de dados pela Cambridge Analytica, a luta para acabar com contas falsas no Twitter e para tirar do ar vídeos obscenos com crianças no YouTube. Esses professores pretendem desafiar uma atitude comum no Vale do Silício: a de considerar a ética como um entrave à inovação.
"Temos de ensinar às pessoas que há um lado negativo na ideia de 'avançar sempre, mesmo quebrando coisas'", diz Laura Norén, pós-doutoranda do Centro de Ciência de Dados da Universidade de Nova York, que leciona em um novo curso de ética em Ciência de Dados. "É possível consertar um software, mas não uma reputação destruída."
Cursos de ciência da computação têm de garantir que os estudantes tenham conhecimento de normas éticas relacionadas à computação para terem o aval do ABET, grupo internacional de validação de programas universitários de Ciência e Engenharia. Em alguns cursos, o tema é embutido em aulas mais abrangentes, enquanto em outras, são abordados em cursos independentes.
No entanto, até recentemente a ética não parecia relevante para muitos estudantes. "Comparada à Medicina, a interação diária com a dor ou a morte é muito menor quando se produz software", diz Joi Ito, diretor do Media Lab, do MIT.
Automação. Um dos motivos para as universidades estarem investindo em ética é a popularização de tecnologias poderosas, como o aprendizado de máquina. Tratam-se de algoritmos que podem aprender de modo autônomo a executar tarefas a partir da análise de grandes volumes de dados. Como tais ferramentas podem, em última análise, modificar a sociedade, as universidades se apressam a fazer os estudantes entenderem as potenciais consequências. "Uma vez que começamos a fazer coisas como veículos autônomos, as pessoas estão ansiosas para criar um sistema ético."
No ano passado, a Universidade Cornell introduziu um curso no qual os estudantes aprendem a enfrentar desafios éticos. Eles têm de analisar um conjunto de dados tendenciosos, com poucos lares de baixa renda, por exemplo, para entenderem que o banco de dados não é representativo para o conjunto da população. Os alunos também debatem o uso de algoritmos em decisões de vida, como contratar alguém ou escolher uma universidade. "Procurei fazê-los entender os desafios que enfrentarão", disse Solon Baroca, professor de Ciência da Informação que leciona no curso.
Em outro curso da Cornell, a professora Karen Levy direciona a discussão ética para o papel das empresas, não dos profissionais. "Muitas decisões éticas têm a ver com as escolhas que uma empresa faz: que produtos vai desenvolver, como lidará com os dados pessoais de seus usuários", disse Karen. "Se o treinamento ético se concentrar inteiramente na responsabilidade individual do cientista de dados, há o risco de o papel da empresa ser subestimado."
*************
Tentar trazer ética dos médicos para programadores! Será que é válida a tentativa a que se propõem as referidas universidades dos EUA? Será que vale a pena refletir sobre o que é dito na reportagem de Natasha Singer apresentada acima?

segunda-feira, 2 de abril de 2018

Reflexões provocadas por "Algoritmos e desigualdade"

"A história de Virginia Eubanks é uma lição assustadora para todos nós". Com essas palavras a laureada escritora e jornalista britânica Gillian Tett termina seu excelente artigo, e eu inicio estas reflexões. Vocês concordam que na referida história o assustador são os "algoritmos sem rosto" que levaram Virginia Eubanks a "publicar um livro que explora a maneira como os computadores estão mudando a prestação de serviços sociais em três regiões dos Estados Unidos."
Um livro intitulado "Automating Inequality" (Automatizando a Desigualdade) onde Virginia "conclui que a inovação digital está reforçando, e não reduzindo a desigualdade". Um livro onde "existem exemplos de onde a inovação digital está funcionando", mas onde também é mostrado que "para cada exemplo positivo, há exemplos aflitivos de fracassos".
Um livro que faz referência a outro da matemática Cathy O'Neill onde é dito o seguinte: "Modelos matemáticos mal concebidos agora controlam os mínimos detalhes da economia, da propaganda às prisões. Eles são pouco transparentes, não são questionados, não são responsabilizados e eles 'classificam', miram ou otimizam milhões de pessoas... agravando a desigualdade e prejudicando os pobres."
Existe alguma solução? – indaga Gillian Tett em seu excelente artigo. Indagação que ela mesma responde assim: "Cathy O'Neill e Virginia Eubanks sugerem que uma opção seria exigir que os tecnólogos façam algo parecido com o julgamento de Hipócrates, de 'em primeiro lugar,fazer o bem'. Uma segunda ideia – mais custosa – seria forçar as instituições a usar algoritmos para contratar muitos assistentes sociais humanos para complementar as tomadas de decisões digitais. Uma terceira ideia seria assegurar que as pessoas que estão criando e rodando programas de computador sejam forçadas a pensar na cultura, em seu sentido mais amplo. Isso pode parecer óbvio, mas até agora os nerds digitais das universidades pouco contato tiveram com os nerds das ciências sociais – e vice-versa. A computação há muito é percebida com uma zona livre de cultura e isso precisa mudar."
E após lembrar essas passagens do excelente artigo que provocou esta postagem, estas reflexões prosseguem a partir das seguintes indagações. Será que a quantidade de assustados com a lição propiciada pela história de Virginia Eubanks é relevante? Que tipos de indivíduos compõem o "todos nós" a que se refere Gillian Tett? E para responder a tais indagações creio que seja suficiente recorrer ao penúltimo parágrafo do texto de Gillian, reproduzido a seguir.
"Mas somente haverá mudanças quando os planejadores econômicos e eleitores entenderem a verdadeira escala do problema. Isso é difícil quando vivemos numa era que gosta de celebrar a digitalização – e em que as elites geralmente estão protegidas das consequências desses algoritmos."
Desanimador, não? Afinal, como esperar por mudanças que solucionem os problemas causados pela inovação digital considerando que "vivemos numa era que gosta de celebrar a digitalização – e em que as elites geralmente estão protegidas das consequências desses algoritmos." Numa era que me faz lembrar uma sinistra afirmação feita pelo filósofo alemão Gunther Anders (1902 – 1992), em 1957: "O fascínio pelo progresso nos faz cegos para o apocalipse."
Não, a quantidade de assustados com a lição propiciada pela história de Virginia Eubanks não é relevante. E identificar que tipos de indivíduos compõem o "todos nós" a que se refere Gillian Tett é algo bastante difícil.
E de lembrança em lembrança, o método das recordações sucessivas traz o seguinte trecho do artigo publicado na edição de 22 de junho de 2008 do Jornal do Brasil em uma coluna intitulada Coisas da Política assinada pelo jornalista Mauro Santayana.
A guerra entre os ricos e os pobres
Entre as assustadoras denúncias de projetos do neoliberalismo e da globalização, para a exclusão, há a de um encontro ocorrido na Califórnia, nos anos 80, em que alguns economistas e sociólogos, americanos e europeus, sob o patrocínio dos banqueiros, concluíram que era necessário afastar do consumo 4/5 da população mundial, a fim de garantir o padrão de vida dos 20% restantes. Os demais deveriam ser marginalizados da comunidade planetária, até sua extinção, mais cedo ou mais tarde, de uma forma ou de outra. Os fatos parecem confirmar esse monstruoso projeto, que a consciência ética (a cada dia mais escassa) abomina.
"Os fatos parecem confirmar esse monstruoso projeto, que a consciência ética (a cada dia mais escassa) abomina.", disse Mauro Santayana, há quase dez anos, referindo-se a "uma conclusão chegada, nos anos 80, por alguns economistas e sociólogos, americanos e europeus, sob o patrocínio dos banqueiros". Será que a inovação digital merece ser incluída entre os fatos que parecem confirmar esse monstruoso projeto?
E para finalizar estas reflexões, repito aqui uma indagação feita alguns parágrafos acima. Considerando que "vivemos numa era que gosta de celebrar a digitalização – e em que as elites geralmente estão protegidas das consequências desses algoritmos." - vocês conseguem identificar que tipos de indivíduos fazem parte do "todos nós" para quem Gillian Tett considera a história de Virginia Eubanks uma lição assustadora? Para mim, a lição mais assustadora nesta "era em que vivemos" é a constatação de que são muito poucos os que se assustam com alguma terrível lição que lhes seja oferecida. Deslumbrada com qualquer inovação tecnológica que lhe seja apresentada, a imensa maioria da pretensa espécie inteligente do universo torna-se incapaz de assustar-se com qualquer terrível lição que lhe seja oferecida.