🧭 🧠 Para onde vai o futuro de quem prevê o futuro?
E mais: Neil Gaiman em maus lençóis e um criador de diálogos tão natural que assusta, vindo do Google.
Vivo no espaço de duas semanas, várias vidas. Subo e desço de aviões e reuniões, simulo pensamentos estratégicos, que são presos nas paredes como cartazes lambe-lambe a espera do público para os eventos que anunciam. Pensamentos que são avaliados a contento, mas sem brilho. Recolho as feridas, lambo-as, parto para a próxima.
Estou agora circulando pelo maior evento do mundo, testemunhando a maior equipe do mundo como um ser adimensional não percebido. É uma passagem rápida, pois afazeres me levam a me dividir. “Como assim, nada poderia ser mais importante do que algo que é o maior do mundo em sua categoria”, diz o mais afoito.
Concordo resiliente. Preciso fazer escolhas todos os dias. É como aquele Dilema Filosófico do Bonde Desgovernado1. Preciso escolher SEMPRE a opção que gere menos impacto e, egoisticamente, prefiro gerar menos impacto entre os meus. E os meus precisam que eu ajude a organizar sua semana fora de casa, em início de vida adulta. Paternidade, nasci de novo para isso.
Pareço divagar e por isso reintegro o foco.
Estou aqui para sinalizar o retorno desta exata voz, sobretudo na abertura da edição semanal que chega agora em seu app e caixa postal. Acredito que este fluxo de consciência que conduziu minha produção de narrativas em áudio entre 2019 e 2021 é, sem dúvida, aquele em que mais me coloco à mostra. É uma voz mais corajosa e real. É 100% IA Free.
Acredito que, por isso mesmo, é tão necessária para o meu momento pessoal e profissional. E essa é a piada. Um criador de conteúdo 50+, um diretor de novos negócios e inovação e um pesquisador entram em um bar e… os três sou eu mesmo.
Percebo que nem sempre tem graça.
Mas, quase sempre, tem caldo. Como a edição de hoje que traz as inquietações de quem precisa se posicionar sobre o futuro da aventura humana, a recente controvérsia sobre Neil Gaiman e a temporada de God Omens e alguns biscoitinhos variados.
Olho para as anotações preparatórias e reforço para não esquecer: fale para eles participarem da pesquisa sobre a newsletter. Falo: cliquem aqui e respondam!
Abro uma página em branco do Notion, importo resumos do que de mais interessante li no período e começo a preparar, às 13h52 da segunda-feira, isso que vocês começaram a ler na quarta.
Quem pilota esse bonde agora?
O projeto mauroamaral.com nasce a partir da certeza de que o futuro de conteúdo bem feito, pode ser traduzido em dois conceitos: curadoria e canais de contato direto. A sua newsletter é uma das melhores versões desta união. Mas temos outras: um canal no Instagram, uma comunidade no WhatsApp e ainda o Telegram e o Discord.
[Direto da Fronteira entre Tecnologia, Comunicação e Cultura]
Quem avalia os avaliadores de futuros?
Dou play na “O futuro de Bill Gates” (Netlifx, 2024), lembrando que o longevo inovador e multibilionário já previu que a internet não daria em muita coisa. Ou seja, a ironia da situação me seduziu.
Percebo que na série Gates traz em um primeiro episódio suposições sobre para onde as Inteligências Artificiais nos levarão em futuro breve. Faz isso recorrendo a entrevistas com James Cameron e os criadores da Open A.I, da qual é conselheiro; e traça um bom panorama teórico, tá?

Faz isso ao apresentar alguns predecessores, nos provar de que as I.As já estão presentes em diversas atividades há algumas décadas e parece animado, vocacionado, dedicado a anotar todos os detalhes. E noto logo que…não demonstra a necessidade de se sentir responsável.
Esta certa falta de agência (moral e de discurso) me incomodou um pouco. Causa certo estranhamento testemunhar Bill Gates como um aluno dedicado tomando notas como se pouco soubesse do status atual desta que promete ser uma revolução em, literalmente, todas as áreas da atividade humana nos próximos anos.
Os episódios da sequência tratam de temas tão importantes quanto, mas que já estão no radar de Bill há um tempo, como caos climático, renda universal e saúde para todos.
O fato é que o documentário levanta a questão de hoje, direto da fronteira entre tecnologia, comunicação e cultura por nos colocar a frente de mais um dilema (dentre tantos):
Como lidar com gente que vive de prever o futuro.
Porque estamos cercados deles. Como, por exemplo, o Yuval Harari. Em seu novo livro, chamado “Nexus, a História dos Redes de Informação da Idade da Pedra à Inteligência Artificial", ele sustenta que as redes de informação são a base da cooperação e poder humanos.
Elas permitem colaboração em larga escala, distribuindo recursos e autoridade. Desde rotas comerciais até os mitos partilhados, essas redes moldaram a humanidade.
E aqui, vale a indicação de um livrinho que sempre solto em rodas de interessados: o Grouped, de Paul Adams. Falo dele aqui desde as primeiras edições:
O cérebro humano, segundo Paul Adams no excelente Grouped, tem capacidade de gerenciar pouco mais de 250 vínculos reais. Pessoas que você sabe o nome, a história, as qualidades. E finge conhecer os riscos e limitações que representam para sua integridade física. (extraído da edição de 01/07/2021)
Contudo, Harari destaca que a IA traz novos riscos, funcionando como uma "inteligência alienígena" que pode se tornar indecifrável e incontrolável. Ou seja, um pouco de “Sapiens”, um pouco de “Carta aberta conta a I.A.”, certo?
Mas o fato é que - ainda que reducionista - Nexus acerta ao provocar reflexão sobre nossos sistemas de poder e a relação entre passado e futuro, como um chamado para pensarmos criticamente sobre a tecnologia que governa nossas vidas, mostrando como a história pode iluminar os caminhos para um futuro incerto. É essencial para quem se interessa por história, tecnologia e poder.
Ainda que Foucaultiana, questão está ao nosso redor.
Para ilustrar, dois exemplos. O primeiro, a recente controvérsia envolvendo a FANUC, uma das maiores fabricantes de robôs do Japão, e suas supostas relações comerciais com a indústria de defesa israelense.
Assim como esses pensadores debatem o impacto das novas tecnologias, especialmente a IA, na sociedade, o caso FANUC destaca a responsabilidade das empresas de tecnologia quanto ao uso de seus produtos. A acusação de que a FANUC estaria lucrando com a guerra em Gaza, violando suas próprias políticas corporativas, ecoa a crítica feita a Gates por não demonstrar um senso de responsabilidade adequado em relação aos impactos da IA.

O conceito de "duplo uso" da tecnologia ressoa com as preocupações de Harari sobre como as redes de informação e tecnologias podem ser utilizadas para diferentes propósitos. A linha tênue entre tecnologia civil e militar, evidenciada no caso FANUC, ilustra a complexidade das redes globais de informação e comércio discutidas por Harari.
Isso demonstra como a tecnologia, a política e a ética se entrelaçam de maneiras muitas vezes imprevisíveis, criando dilemas para empresas e governos.
E essa é a nossa tríplice fronteira, captaram?
Se curtiu o papo até agora, considere assinar ou dar um UP em sua assinatura, tornado-se um colaborador!
Ou seja, o caso FANUC exemplifica os desafios éticos e legais enfrentados pelas empresas de tecnologia em um mundo globalizado. A empresa, com vendas anuais de quase US$ 6 bilhões e uma história de exportações para indústrias de defesa na América do Norte e Europa, agora se vê no centro de um debate sobre responsabilidade corporativa e controle de exportações.
Isso reflete as preocupações levantadas tanto por Gates quanto por Harari sobre a necessidade de uma governança global eficaz para tecnologias emergentes, especialmente aquelas com potencial uso dual, civil e militar.
O fato é que sequer precisamos extrapolar para algo tão destrutivo como uma guerra para acender alertas frente às previsões de futurólogos.
O que nos leva ao segundo exemplo.
Veja o caso da Amazon adquirindo a Covariant para impulsionar sua automação de armazéns. O fato ilustra perfeitamente os pontos que discutimos anteriormente sobre a responsabilidade das empresas de tecnologia e o impacto das novas tecnologias na sociedade.
Assim como Bill Gates parece não demonstrar um senso adequado de responsabilidade em relação aos impactos da IA em seu documentário, a aquisição da Amazon levanta questões éticas similares.
A empresa está claramente buscando aumentar sua eficiência e domínio no mercado de e-commerce, mas que consequências isso terá para os trabalhadores e para a concorrência?
O caso da Amazon-Covariant também ecoa as preocupações de Yuval Harari sobre como as redes de informação e tecnologias podem ser utilizadas para diferentes propósitos.
A linha tênue entre inovação tecnológica e concentração de poder fica evidente quando vemos que a Amazon passou de 10.000 para 750.000 robôs em uma década, revolucionando a logística do e-commerce. Mas, a que custo? E extrapolando para qual tipo de uso adicional? (Vigilância? Uberização final dos trabalhadores?)
Quem avalia os avaliadores?
Essa é a questão fundamental. Os futurólogos e caçadores de tendências muitas vezes se apresentam como visionários capazes de mapear o que está por vir, mas quem valida essas previsões?
Em última análise, precisamos de um debate mais crítico e público sobre as visões de futuro que nos são apresentadas. Afinal, estamos falando de um território incerto e incontrolável.
Ao invés de se concentrar em desenhar cenários inevitáveis, talvez o papel mais útil desses profissionais seja nos preparar para lidar com a incerteza, promovendo o pensamento crítico e a adaptabilidade.
Porque, mais do que antever um destino, é necessário reconhecer que o futuro não é uma certeza a ser vendida, mas um campo de possibilidades a ser construído coletivamente e com responsabilidade.
[Read], [Rec] & [Play]
Good Omens: produção da 3ª temporada pausada em meio a alegações contra Neil Gaiman
Os fãs de Good Omens, aquela série toda cheia de humor inglês que a gente adora, disponível na Prime Video e estrelada por Michael Sheen e David Tennant, podem precisar esperar um pouco mais pela conclusão de sua história.
A produção da terceira e última temporada foi pausada devido a possíveis mudanças na equipe e nos rumos do projeto, conforme relatado pela Deadline. A situação, no entanto, vai além de ajustes criativos; ela está diretamente ligada às polêmicas envolvendo o coautor e showrunner Neil Gaiman.
Desde julho, Gaiman enfrenta alegações de agressão sexual apresentadas por várias mulheres, investigadas pela mídia britânica no podcast Master: the Allegations Against Neil Gaiman, da Tortoise Media, e repercutidas em veículos como a Rolling Stone.
Em resposta, Gaiman negou categoricamente as acusações, afirmando estar “profundamente perturbado” com a situação. A repercussão dessas alegações parece estar impactando não apenas a produção de Good Omens, mas também outros projetos do autor.
Além da série da Prime Video, o filme The Graveyard Book, que seria produzido pela Disney, também foi pausado, supostamente por múltiplos fatores, segundo fontes da Deadline.
A adaptação de outra obra de Gaiman, a série Dead Boy Detectives da Netflix, foi cancelada, embora a publicação não tenha mencionado a controvérsia envolvendo o autor como motivo direto. No entanto, o conjunto desses eventos sugere uma crescente dificuldade na viabilização de projetos relacionados ao escritor.
A incerteza também paira sobre o futuro de outras adaptações de Gaiman. O impacto dessas alegações na carreira do autor ainda está por ser completamente compreendido, mas os recentes acontecimentos mostram que as consequências podem ser significativas. Até o momento, resta saber se Good Omens conseguirá voltar à produção e entregar o final tão aguardado por seus espectadores.
Biscoitinhos para a audiência que não quer perder o contato humano, mas com respeito.
💊 Rejeição do MDMA pela FDA: bad trip para a medicina psicodélica | A recente rejeição da FDA ao uso do MDMA no tratamento de Transtorno de Estresse Pós-Traumático (TEPT) abalou a comunidade médica. A Lykos Therapeutics, que liderava a pesquisa, viu suas esperanças desmoronarem após anos de investimento em ensaios clínicos. A decisão foi motivada por preocupações com a qualidade dos estudos e denúncias de conduta antiética, incluindo alegações de abuso sexual por parte de um terapeuta não licenciado.
O MDMA, conhecido por suas propriedades alucinógenas que auxiliam na exploração de traumas em psicoterapia, agora enfrenta incertezas. Embora estudos mostrem resultados promissores, com 86% dos pacientes apresentando melhora nos sintomas, a rejeição da FDA sugere que a comunidade precisa repensar mais do que apenas novos ensaios. Mudanças na ética e na cultura de pesquisa são necessárias para restaurar a confiança, como sinalizou esse artigo no The New York Times →
🏛️ Criança quebra acidentalmente jarro de 3.500 anos em museu de Israel | Durante uma visita ao Museu Hecht, na Universidade de Haifa, Israel, um jovem garoto quebrou acidentalmente um jarro de 3.500 anos da Idade do Bronze. O artefato, exposto sem barreiras de vidro, acabou sendo derrubado, para o desespero do pai. Após o incidente, o pai informou os guardas do museu, que optaram por não punir a criança e já planejam restaurar o jarro.
O caso levanta discussões sobre segurança e acessibilidade em museus. Proteger objetos históricos sem comprometer a experiência dos visitantes é um desafio constante. O Museu Hecht escolheu uma abordagem educativa, focando na recuperação do artefato e na revisão de suas políticas de segurança →
🎓 Cursos gratuitos da Universidade de Harvard, agora vai! | Quantos anos você tinha quando descobriu que dá para estudar na Universidade de Harvard sem gastar nada e sem sair de casa? Através da plataforma edX, a mais famosa das famosas Universidades americanas oferece uma variedade de cursos online gratuitos em áreas como Inteligência Artificial (IA) e Cibersegurança.
É uma oportunidade única para quem deseja aprimorar suas habilidades e conhecimentos com a qualidade de ensino de uma das universidades mais prestigiadas do mundo. Descubra os melhores cursos online gratuitos da Universidade de Harvard no edX e comece sua jornada de aprendizado hoje mesmo →
🤖 ChatGPT com modo de voz avançado: fascínio ou risco para relações humanas? | O ChatGPT agora oferece uma experiência ainda mais humana com seu novo "modo de voz avançado", disponível para assinantes pagos. Esse recurso permite conversas em tempo real mais naturais, com respostas emocionais e tons de voz realistas. Mas enquanto muitos se encantam com a novidade, surgem preocupações sobre o impacto nos relacionamentos humanos.
O modo de voz humanizado pode levar usuários a desenvolver vínculos emocionais com o chatbot, como exemplificado por uma influenciadora que programou o ChatGPT para ser seu “namorado”. Embora pareça inofensivo, o tempo investido em interações com a IA pode substituir ou afetar negativamente os relacionamentos humanos, criando expectativas irreais.
A discussão sobre o uso saudável e o potencial para dependência emocional está apenas começando e até mesmo abriu esta edição. Lá no artigo do The Conversation, você pode explorar um pouco mais →
🎙️ Google NotebookLM é impressionante | O Google lançou o NotebookLM, uma ferramenta que transforma seus artigos em podcasts realistas com qualidade surpreendente.
Não estou falando de síntese de voz… e sim a capacidade de ler 10 artigos em uma base e criar uma conversa fluida entre dois apresentadores experientes, discutindo o conteúdo de maneira natural e contextualizada. Com expressões. Interjeições. Interrupções naturais de um diálogo humano. Só um defeito até agora: só rola em inglês. Você pode testar aqui →
Eis o Dilema: “Um bonde está fora de controle em uma estrada. Em seu caminho, cinco pessoas amarradas na pista por um filósofo malvado. Felizmente, é possível apertar um botão que encaminhará o bonde para um percurso diferente, mas ali, por desgraça, se encontra outra pessoa também atada. Deveria apertar-se o botão?” . Tem até um verbete na WikiPedia sobre a questão →
Boa reflexão sobre futuristas. Confesso que sempre tive uma certa desconfiança. Mas depois de aprender um pouco que pode ser feito de forma coletiva e responsável, como você comentou, tô confiando mais no processo.