Ryan Trahan é um youtuber americano que passou recentemente por mais uma edição do que ele chama de Penny Challenge. Em Paris, começando com apenas € 0,01 e em apenas 7 dias consecutivos, ele deveria obter dinheiro suficiente para voltar aos Estados Unidos, onde ele mora, usando somente fundos obtidos a partir deste único centavo de euro.

Preciso dizer que eu não conhecia os vídeos do Ryan até o ano passado, quando meu filho mais novo me mostrou, e assistimos juntos à primeira versão do desafio. Naquele momento, começando na Califórnia e munido com apenas 1 centavo de dólar, ele deveria viajar até a Carolina do Norte usando somente o que pudesse conseguir de recursos a partir deste centavo. Por trás do desafio estava uma campanha beneficente, em que ele originalmente tinha como objetivo levantar 100 mil dólares para uma instituição sem fins lucrativos que distribui refeições para pessoas necessitadas. E, ao final de um mês, ele tinha conseguido obter quase 1,4 milhão de dólares.

Na segunda versão do desafio, ele estabeleceu como meta arrecadar 250 mil dólares para outra instituição sem fins lucrativos, que leva água potável para quem não tem acesso fácil a ela. Ele ultrapassou a meta de novo, e até o momento em que eu escrevo este post, ele tinha conseguido quase 400 mil dólares.

Mas o que isso tem a ver com piada, e com o Chat GPT?

Boa pergunta! Para conseguir multiplicar o dinheiro original e, a partir de um único centavo, atingir seus objetivos, Ryan usa diversos métodos. Nos Estados Unidos, respondeu à pesquisas online, cortou grama e levou cachorros pra passear. Também vendeu várias coisas, como refrigerantes, bolas de golfe e garrafas d’água. Na Europa, entre outras coisas além de vender água, lavou vidraças para lojistas e desenhou caricaturas de turistas em troca de doações (quem gostasse do desenho doava o que podia).

Mas na minha opinião, a coisa mais inusitada que ele fez para conseguir aumentar seus recursos, tanto nos EUA quanto na Europa foi… contar piadas em troca de doações. Assim como no caso das caricaturas, quem gostasse da piada doava o que quisesse doar. E as piadas definitivamente não eram boas… todas elas, na verdade, eram as típicas piadas do tio do pavê. Mas mesmo com piada ruim, movidas pelo espírito de ajudar ao próximo, as pessoas doavam o que pudiam.

Eis que, no quinto dia da jornada, tendo saído da França e passado por outros países europeus, Ryan estava na Inglaterra e tentou usar (sem muito sucesso) piadas para conseguir fundos. O humor britânico, creio eu, estava mais difícil de agradar. Até que a certa altura uma menina britânica resolve contar a ele uma piada britânica, para tentar ajudar.

A menina do vídeo deve ter algum parentesco com o tio do pavê também, porque a piada dela foi assim: Why did King Charles get wet? Because he’s the reigning monarch! E mesmo assim, quando percebi, eu estava dando risada que nem bobo, o que provavelmente me qualifica em algum grau da escala de tio-pavêzice… 😂 😂 😂

A coisa só tem graça em inglês porque a piada pergunta por que o Rei Charles se molhou e usa uma similaridade sonora entre reigning, do verbo reinar, em inglês, e raining, do verbo chover, em inglês. Ele é o monarca reinante, mas também é o monarca chuvoso, e por isso ficou molhado. A partir daquele momento fiquei pensando que essa piada, se fosse adaptada para o português de alguma forma, poderia ser usada no meu repertório repertório de algum tio do pavê por aí. Mas eu não consegui, de maneira alguma, encontrar uma forma de adaptar a graça para o português.

Então fiz o que qualquer pessoa no meu lugar faria. Recorri à inteligência artificial. Afinal de contas, o Chat GPT, já que tem tanta inteligência artificial, bem que poderia dar uma mãozinha, não é mesmo? Então lá fui eu:

Achou engraçada a adaptação? Nem eu. Então resolvi conversar um pouco mais com o Chat GPT. Quem sabe, se eu contasse a ele sobre a similaridade entre os sons de raining e reigning, poderia obter algum resultado melhor? Afinal de contas, eu não consegui mesmo pensar em nada que tivesse minimamente o mesmo efeito do inglês no português. Assim…

Mais duas tentativas e nada. Depois disso, em uma verdadeira conversa com o Chat GPT, admiti o quanto é mesmo complicado adaptar piada em inglês para o português, e como a piada, mesmo depois das novas contribuições da inteligência artificial, continuava sem graça.

E, na prática, fui obrigado a concordar com o algoritmo do LLM. Realmente é um desafio enorme preservar a graça de uma piada em seu idioma original, quando se tenta fazer a tradução de uma piada para outro idioma. É por isso que eu tenho certeza de que, se fosse uma situação em que algo de fato precisasse ser feito a respeito, como em uma tradução de filme, por exemplo, os tradutores e dubladores certamente substituiriam a piada por uma que tivesse um grau de humor similar no idioma alvo.

É uma pena, porque eu realmente queria que fosse possível traduzir o original. Seria um sucesso nas reuniões de família… 😂 😂 😂

Screenshot of a 1979 IBM training material — or presentation slide

I’ve come across this image while browsing through my RSS feeds this week. Produced in 1979 by someone at IBM — although it’s not clear to me whether it came from an internal meeting presentation slide or a training material, not that this matters —, the sentence the image brings was presented in the context of future technology, both hypothetical and real.

What called my attention and made me think about writing a post was the sentence, “A computer can never be held accountable. Therefore a computer must never make a management decision”. To me, despite being from roughly 40+ years ago, it completely relates, in 2023, with all the artificial intelligence hype, specially when everyone at Sillicon Valley seems to have elected it as a kind of panacea for every humanity problem.

I’ve been meaning to write about it for some time now, so here it goes: I believe that, despite all this hype around AI, all the talk about how it could outperform humans and take our jobs is a big nonsense. Contrary to Geoffrey Hinton, the supposed “godfather of AI”, who, as Paris Marx recently put, believes AI is now very near the point where it becomes more intelligent than humans, “tricking and manipulating us into doing its bidding”, I’d guess that’s something very far from happening at all.

For one thing, AI faces several challenges of its own already, among which the environmental impacts its required processing power may generate, the difficulties and social impacts its algorithms can generate, denying someone credit or by mistakenly taking humans for monkeys. Recent AI has a long road to go down while improving on its own.

Language models, Chat GPT being the most hyped one, although sounding very reasonable while providing their answers, are nothing but parrots in the sense they acquire big amounts of raw data — texts from all over the internet, therefore varying largely in quantity, quality and veracity — and recombine, remix and rewrite them to create a mostly reasonable, human sounding answer. Don’t get me wrong, this is amazing, as it is very difficult to create. But to me it isn’t enough to support the hype that goes by, calling a LLM “intelligent”. LLMs don’t have the ability to think, let alone reach the level of human intelligence as AI currently is. They need training (by humans), need continuous adjusting and refining and yet are susceptible to errors, inconsistencies and hallucinations. And as such, again in my opinion, they’re subject to that sentence in 1979: they cannot be held accountable for what they produce, or say. They are so not intelligent that as soon as an error is made, it takes a human to readjust and rewrite its program so the decisions are corrected from that point on. This means their intelligence will always be as good as the limits of the algorithm.

Finally, there are roles that must remain performed by humans. Last January I was listening to this episode of the Tech Won’t Save Us podcast where Timnit Gebru, CEO of the Distributed AI Research Institute and former co-lead of the Ethical AI research team at Google, talked, among other things, about neural networks:

“For some people, the brain might be an inspiration, but it doesn’t mean that it works similarly to the brain, so some neuroscientists are like: Why are you coming to our conferences saying this thing is like the brain?“

Timnit Gebru, on neural networks

Neural networks have been inspired by the human brain. By trying to emulate the brain waves and electrical pulses that get in motion when we think and when we make decisions. But they’re not a copy of our brains. Nor work exactly like it. Nor can decide like we decide, no matter how well trained it is. So, there we are again, back in 1979: computers can’t be held accountable.

But imagine for a moment computers could think and artificial intelligences could make decisions. The idea of complex, not transparent, autonomous systems taking care of our finance systems, food supply chains, nuclear power plants and military weapons systems would be horrible. The same if our doctors for example were replaced by robots. The same if out teachers. In all these situations, decisions need to be made by human beings, so the roles must remain with humans. And if that ever changes, in my opinion, it will be the irrevocable sign humanity has lost itself.

Lucky enough, these scenarios are (still) dystopian books scenarios.