Foi em 1994 que o engenheiro da computação Lou Montulli, da Netscape, inventou o cookie. A partir dessa invenção as páginas web ganharam a capacidade de se lembrar de nossas senhas, preferências, configurações de idioma e várias outras informações relevantes.

Quem não gostaria de fazer compras com um assistente ao seu lado, escutando nossas preferências e segurando nossas sacolas enquanto andamos pela loja e escolhemos o que queremos, não é mesmo? Os cookies de Lou viabilizaram essa possibilidade, ou seja, a invenção em si foi revolucionária ao estabelecer a gravação de blocos de dados localmente — isto é, no dispositivo em uso pelo usuário enquanto ele acessar o site — para recuperação posterior, ou seja, em uma visita futura do mesmo usuário a este site. Tudo isso, então, configurava uma troca privada de informações entre usuário e site.

Mas menos de dois anos depois, as empresas que comercializam anúncios descobriram como hackear os cookies para uma função muito menos nobre e invasiva: rastrear o comportamento dos usuários. Estes novos cookies do mal começaram a ser chamados de cookies de terceiros, ou third-party cookies, em contraposição aos first-party cookies originais, que trocavam dados apenas entre usuário e site. Os cookies do mal são como aquelas escutas que são plantadas em filmes de espionagem: captam tudo o que está sendo feito pela vítima, mas só compartilham estas informações com seus aliados. Os espiões podem colocar seus cookies nos sites de outras pessoas, para armazenar o que você visitou e que tipo de dados você informou.

É graças ao trabalho desses cookies espiões que, se eu buscar pelo termo escova de dentes no Google, começo a ver um monte de anúncios de escovas de dentes sendo vendidas por sites que variam desde supermercados e farmácias até a Amazon ou o Mercado Livre. Por mais que alguém possa argumentar que cookies são um mal necessário e que seria impossível navegar na internet atualmente sem esbarrarmos com eles e cedermos nossos dados de navegação, eu acredito que esta coleta de dados é uma invasão de privacidade que torna os antes inocentes cookies verdadeiros monstros da internet.

Ao longo do tempo e durante anos, os cookies foram coletando dados de forma cada vez mais descontrolada, graças à falta de regulamentação quanto a rastreamento e vigilância de usuários online, um cenário que só mudou a partir de 2018, com a introdução de legislações de proteção à privacidade como a GDPR (General Data Protection Regulations) europeia e a LGPD brasileira, responsáveis, aliás, pela grande quantidade de popups que atualmente aparecem pedindo para você aceitar cookies sempre que visita um site na internet. Não é nem de longe a solução perfeita, mas pelo menos agora é possível termos noção do que cada site quer rastrear e porque, e concordar (ou não) com esse rastreio de informações.

Mas não é apenas clicando e consentindo (ou não) com a utilização de cookies que podemos combater o uso inapropriado de nossas informações pelos anunciantes. Também podemos escolher usar navegadores que desabilitaram totalmente o uso de cookies de terceiros: os primeiros que fizeram isso foram o Safari, da Apple, em 2017, e o Firefox, da Mozilla, in 2019. Já o Chrome, produto do Google que, caso não esteja claro, é antes de qualquer coisa uma empresa de comercialização de anúncios online, acaba de implantar um recurso chamado de Privacy Sandbox, que diz substituir os cookies terceiros mas que, ainda assim, coleta muitos dados pessoais dos usuários, alimentados por um processo de opt-in em que você concorda com a coleta de dados mas apenas porque não o entende direito, ou não consegue evitar.

Se você não está pagando pelo produto, você é o produto.

Em relação a empresas como Google, Facebook e tantas outras, normalmente disfarçadas de redes sociais, nunca é demais repetir aquela velha máxima que diz que quando não estamos pagando por um produto, é porque nós somos o produto: quer um navegador de internet gratuito? Ótimo. Apenas tome cuidado com o que está adquirindo (ou com o que está concordando) ao usá-lo gratuitamente.

Ryan Trahan é um youtuber americano que passou recentemente por mais uma edição do que ele chama de Penny Challenge. Em Paris, começando com apenas € 0,01 e em apenas 7 dias consecutivos, ele deveria obter dinheiro suficiente para voltar aos Estados Unidos, onde ele mora, usando somente fundos obtidos a partir deste único centavo de euro.

Preciso dizer que eu não conhecia os vídeos do Ryan até o ano passado, quando meu filho mais novo me mostrou, e assistimos juntos à primeira versão do desafio. Naquele momento, começando na Califórnia e munido com apenas 1 centavo de dólar, ele deveria viajar até a Carolina do Norte usando somente o que pudesse conseguir de recursos a partir deste centavo. Por trás do desafio estava uma campanha beneficente, em que ele originalmente tinha como objetivo levantar 100 mil dólares para uma instituição sem fins lucrativos que distribui refeições para pessoas necessitadas. E, ao final de um mês, ele tinha conseguido obter quase 1,4 milhão de dólares.

Na segunda versão do desafio, ele estabeleceu como meta arrecadar 250 mil dólares para outra instituição sem fins lucrativos, que leva água potável para quem não tem acesso fácil a ela. Ele ultrapassou a meta de novo, e até o momento em que eu escrevo este post, ele tinha conseguido quase 400 mil dólares.

Mas o que isso tem a ver com piada, e com o Chat GPT?

Boa pergunta! Para conseguir multiplicar o dinheiro original e, a partir de um único centavo, atingir seus objetivos, Ryan usa diversos métodos. Nos Estados Unidos, respondeu à pesquisas online, cortou grama e levou cachorros pra passear. Também vendeu várias coisas, como refrigerantes, bolas de golfe e garrafas d’água. Na Europa, entre outras coisas além de vender água, lavou vidraças para lojistas e desenhou caricaturas de turistas em troca de doações (quem gostasse do desenho doava o que podia).

Mas na minha opinião, a coisa mais inusitada que ele fez para conseguir aumentar seus recursos, tanto nos EUA quanto na Europa foi… contar piadas em troca de doações. Assim como no caso das caricaturas, quem gostasse da piada doava o que quisesse doar. E as piadas definitivamente não eram boas… todas elas, na verdade, eram as típicas piadas do tio do pavê. Mas mesmo com piada ruim, movidas pelo espírito de ajudar ao próximo, as pessoas doavam o que pudiam.

Eis que, no quinto dia da jornada, tendo saído da França e passado por outros países europeus, Ryan estava na Inglaterra e tentou usar (sem muito sucesso) piadas para conseguir fundos. O humor britânico, creio eu, estava mais difícil de agradar. Até que a certa altura uma menina britânica resolve contar a ele uma piada britânica, para tentar ajudar.

A menina do vídeo deve ter algum parentesco com o tio do pavê também, porque a piada dela foi assim: Why did King Charles get wet? Because he’s the reigning monarch! E mesmo assim, quando percebi, eu estava dando risada que nem bobo, o que provavelmente me qualifica em algum grau da escala de tio-pavêzice… 😂 😂 😂

A coisa só tem graça em inglês porque a piada pergunta por que o Rei Charles se molhou e usa uma similaridade sonora entre reigning, do verbo reinar, em inglês, e raining, do verbo chover, em inglês. Ele é o monarca reinante, mas também é o monarca chuvoso, e por isso ficou molhado. A partir daquele momento fiquei pensando que essa piada, se fosse adaptada para o português de alguma forma, poderia ser usada no meu repertório repertório de algum tio do pavê por aí. Mas eu não consegui, de maneira alguma, encontrar uma forma de adaptar a graça para o português.

Então fiz o que qualquer pessoa no meu lugar faria. Recorri à inteligência artificial. Afinal de contas, o Chat GPT, já que tem tanta inteligência artificial, bem que poderia dar uma mãozinha, não é mesmo? Então lá fui eu:

Achou engraçada a adaptação? Nem eu. Então resolvi conversar um pouco mais com o Chat GPT. Quem sabe, se eu contasse a ele sobre a similaridade entre os sons de raining e reigning, poderia obter algum resultado melhor? Afinal de contas, eu não consegui mesmo pensar em nada que tivesse minimamente o mesmo efeito do inglês no português. Assim…

Mais duas tentativas e nada. Depois disso, em uma verdadeira conversa com o Chat GPT, admiti o quanto é mesmo complicado adaptar piada em inglês para o português, e como a piada, mesmo depois das novas contribuições da inteligência artificial, continuava sem graça.

E, na prática, fui obrigado a concordar com o algoritmo do LLM. Realmente é um desafio enorme preservar a graça de uma piada em seu idioma original, quando se tenta fazer a tradução de uma piada para outro idioma. É por isso que eu tenho certeza de que, se fosse uma situação em que algo de fato precisasse ser feito a respeito, como em uma tradução de filme, por exemplo, os tradutores e dubladores certamente substituiriam a piada por uma que tivesse um grau de humor similar no idioma alvo.

É uma pena, porque eu realmente queria que fosse possível traduzir o original. Seria um sucesso nas reuniões de família… 😂 😂 😂

Comic by Rob Cottingham, via Mastodon

…people tend to think this is the time everything is going to be different.

That’s why I couldn’t help posting the above comic, from Rob Cottingham, once I saw it posted on Mastodon. The moment is just perfect because it’s very easy to notice how people — in general, I mean, but not me — seem to be excited about Threads, having just arrived at Meta’s latest party.

I’ve already written my personal opinion about Threads (in Portuguese), but I’ll use this post to, in addition to thatand the above comic panel —, quote a very interesting passage written by Rodrigo Ghedin in one of his latest Manual do Usuário newsletters, and that I took the liberty to freely translate into English:

The best thing about Threads, the new Meta social network, remains still a promise: interoperability with ActivityPub, the protocol behind Mastodon and other decentralized networks.

Rodrigo Ghedin

This coincides with what I wrote, because there’s really no day zero ActivityPub interoperability, jeopardizing my personal plans of only following my friends and family who are on Threads without ever stepping into the party venue itself. And again, as also said by Ghedin, that’ll only be possible when (and if) this promise is turned into reality, what remains to be seen. Until then, I can’t help take Meta’s intentions with a grain of salt… after all, they’ve crowded every square pixel of digital real state they have — Facebook and Instagram, remember? — with algorithms and advertising, and I believe it’ll be only a matter of time until Zuck and his homies enshittify Threads as well.

I’d honestly like to be wrong about it, but so many past platforms made me know better. Time will tell.

Quando eu cheguei ao fediverso, através do Mastodon, eu experimentei algumas instâncias diferentes, antes de me estabelecer aqui no social.lol. O fato da rede ser descentralizada favorece isso, o que é ótimo, pois é como escolher uma casa ou apartamento com as características que você mais valoriza, em uma vizinhança que você aprecia.

Cansado das redes sociais de sempre e de seus algoritmos, que podem fazer todo o sentido para as big evil techs e seus planos capitalistas de dominação mundial mas não fazem nenhum sentido para mime outros usuários convencionais, o Mastodon me apresentou exatamente aquilo do que eu estava precisando, a começar por uma timeline isenta de algoritmos, o que significa que não são exibidas sugestões espertas sobre quem eu devo seguir ou não, e a descoberta de perfis e de gente interessante cabe inteira e exclusivamente a mim, e àquilo que eu entendo que são assuntos e opiniões que quero ver e com os quais quero interagir.

Mas não é só isso que o Mastodon permite. Com ele, bloqueio quem eu quiser, e sigo quem eu quiser, com o detalhe que, se a pessoa estiver em uma outra instância, não preciso ver os posts de todo mundo que está na outra instância, porque posso me inscrever somente naquele dado usuário interessante que eu encontrei. Além disso, nada de propaganda. Nenhum banner, nenhum link patrocinado. Nunca. Never. Jamais.

Instância do Mastodon aproveitando o conteúdo e interagindo amistosamente

Essas coisas combinadas perpetuam a sensação que o Mastodon me transmite: um lugar onde eu posso conversar igual a quando você coloca uma cadeira na varanda da sua casa, ou na calçada da rua, e espera que as outras pessoas cheguem com suas próprias cadeiras e todos se juntem para um daqueles ótimos bate-papos informais e descompromissados, igual aos das cidades do interior, sabe?

Tirando o Mastodon, só tenho aplicativo instalado em meu celular para o Instagram, porque há alguns conteúdos interessantes de amigos e familiares que eu sigo por lá, e que de vez em quando eu acesso para me atualizar. Esses são os mesmos amigos aliás, que são extremamente difícies de convencer a migrar do WhatsApp para o Telegram, por exemplo, ou do Twitter para o Mastodon. E é por isso que ainda mantenho uma presença mínima no Instagram. Mas nada de Twitter, onde apaguei todas as minhas postagens, nem de Facebook, que não sabe o que é ocupar um espacinho que seja na memória do meu celular há anos.

Então, quando a Meta anunciou, no mês passado, que seu Project 92, rebatizado logo em seguida de Threads, seria tanto um competidor do Twitter quanto uma aplicação compatível com ActivityPub, abrindo suas portas para o fediverso, pensei que isso juntaria fome e vontade de comer para mim: fui logo fazer o download e instalar no meu celular, usando meu usuário do Instagram para criar uma conta por lá.

E centenas de milhares de usuários também foram fazer isso. O povo não pode ver uma rede social nova que já desembesta a sair correndo pra garantir o seu lugar (e nome de usuário).

Usuários tentando chegar primeiro no Threads

E é interessante esclarecer: não, não tenho nenhuma pretensão de usar o Threads ativamente, e cheguei a essa conclusão menos de 5 minutos depois de navegar através da interface do aplicativo. Lá estavam eles, na timeline: posts de pessoas que eu não conheço, que eu não pedi pra ver e que não me interessam. Centenas. Não, milhares deles. Uma quantidade surreal de notificações push, cuja utilidade passa a ser severamente questionada quando ocorrem a cada 5 segundos e que, para mim, só servem para alimentar ansiedade desnecessariamente, dizendo que fulano me seguiu, que beltrano quer me seguir. Em breve serão notificações de sugestões para eu seguir. A Meta, empresa da qual aliás eu não gosto, conseguiu nos primeiros instantes da minha user experience com o Threads, jogar no caldeirão exatamente os elementos que eu abomino. Para achar posts de pessoas que eu quero ver e que eu gostaria de seguir, somente fazendo doom scroll e achando, vez por outra, o que um amigo ou familiar postou, mesmo ainda não sabendo ao certo pra que serve esse bicho novo que tio Zuck criou.

É horrível.

O único elemento perceptível para mim, que sou leigo, que remete ao fediverso é a existência da instância do Threads junto ao nome dos usuários. O meu, aliás, danielsantos@threads.net, surgiu migrado instantaneamente do Instagram. Mas não tem como eu seguir ninguém de qualquer outra instância do fediverso, então, nada de seguir gente que já estava no fediverso antes. Nada de seguir gente do Threads nas instâncias já existentes também, então, nada de federação na inauguração. Hmmmm. Se eu fosse de tomar chopp, diria que esse é o tipo de coisa que coloca um monte de água nele, pois inviabiliza, desde o instante zero, meus planos de seguir as postagens de amigos e familiares que não topariam migrar para o Mastodon através da instância onde já estou no fediverso. Uma droga.

Outra coisa interessante é que, uma vez criado seu perfil no Threads, não é possível excluir sua conta. Não existe opção pra fazer isso, pode procurar. O que é perfeito para o Meta, que assim não só arrebanha gente do Instagram fazendo um pré-populamento de quem já estiver naquela rede social dentro do Threads, mas também, uma vez que coloca os usuários ali dentro, não permite que eles saiam. Abre uma porta, trancada depois da passagem de cada usuário, jogando a chave fora logo em seguida. Em seguida, pode estar certo disso: em algum momento, virão exibições de propaganda direcionada e uso de algoritmos automatizados, dois dos horrores dos quais me livrei, e que já citei acima, quando entrei no fediverso.

Será a merdificação do Threads, e só isso para mim já seria motivo suficiente para sair do Threads, e para aconselhar quem ainda não entrou a não desperdiçar seu tempo. É uma cilada, Bino.

Mas cilada ou não, não vou excluir minha conta no Threads (sim, primeiro, logicamente, porque, se eu tentasse, não ia conseguir, porque não tem opção pra fazer isso, lembra?). Mas também porque vou dar um voto de confiança pro tio Zuck, já que ele disse que esse Threads vai ser compatível com ActivityPub. O que significa que, em algum momento, mais cedo ou mais tarde, eu vou poder fazer o que eu imaginei ser possível logo de cara: seguir amigos e familiares que estão nas redes sociais mais habituais e que entrarem no Threads, através de federação.

Minhas crenças de que isso será possível se baseiam, sobretudo, em várias coisas que foram ditas pelo Eugen Rochko, criador do Mastodon, no blog oficial da ferramenta, quando ele explicou o que deveríamos saber sobre o Threads. Por um lado, ele diz esperar que o Mastodon e o Threads se tornem interoperáveis, justamente o que permitirá, tecnicamente falando, que os usuários sigam uns aos outros, trocando, citando e respondendo mensagens entre si, mas diz que a abertura do servidor ao qual estamos federados para que isso seja possível depende do administrador de cada instância, que pode permitir ou proibir a comunicação com o Threads. Na instância em que eu estou, o administrador já sinalizou que, apesar de não curtir o Meta tanto quanto eu, está disposto a manter as portas abertas porque não faz sentido bloquear as pessoas de contatarem seus familiares e amigos que estão nas redes do Meta só porque pessoalmente ele não gosta deles (e eu achei isso fantástico).

Quanto às coisas que poderiam me afetar diretamente ao usar o Threads, como fazerem uso das minhas informações pessoais para efeitos de exibição de propagandas, ou para informar a terceiros sobre minhas atividades para que estes terceiros, por sua vez, me façam ofertas imperdíveis, estarei imune. Rochko destaca isso, ao dizer em sua postagem que apenas aqueles que resolverem baixar, se inscrever e usar direta e ativamente o Thread serão afetados. Aos que, como eu, ficarem exatamente onde estão, mesmo que eu passe a seguir e interagir com alguém de lá através dos poderes do ActivityPub, não haverá brecha através da qual a Meta possa se apoderar dos meus dados (exceto aqueles das mensagens que eu resolver trocar com alguém lá, mas isso é óbvio).

E eu também não serei bombardeado de anúncios!! Já que, ao menos por padrão, o Mastodon não contém nenhuma função específica que exiba anúncios, ficar acompanhando o Threads só de longe, através da federação, me garante continuar não tendo nenhuma propaganda exibida para mim, porque na instância onde estou isso já não ocorre e é impossível que qualquer instância terceira venha a inserir posts patrocinados e outras merdas no meu feed, já que ele é criado no próprio servidor onde estou, com base nas pessoas e hashtags que eu escolhi seguir. Se tiver gente que postar anúncios e eu não gostar, posso também mutar, deixar de seguir ou bloquear a pessoa. Liberdade total.

Eu fico vendo o movimento de plataformas como o Meta ao adotar o ActivityPub e ainda não sei exatamente os rumos e os verdadeiros interesses por detrás de decisões como esta. Mas é legal perceber que por tentarem fazer alguma coisa face ao movimento de migração em direção à redes descentralizadas, estão demonstrando sentir incômodo. Eles vão precisar melhorar sua oferta de serviços. Porque, se não o fizerem, pode ser que seus valiosos usuários passem a enxergar, cada vez mais, que existe um caminho para que ninguém fique preso a plataforma nenhuma — exceto se assim o desejar, é claro.

Stuart Brown, a.k.a. Ahoy is a British YouTuber from Manchester who makes insightful videos about videogames’ history. Recently, I came across “The first video game”, a video he produced 3 years ago as a means to answer what was the first video game to ever appear in history.

Now, this question had always seemed simple to answer in my understanding. After all, I believe I’m not the only one who knew the answer was, of course, Atari’s Pong, which came out in 1972, five years before I was even born. But Stuart’s video proved me (and everyone going by the same answer) wrong, and the culprit for everyone’s mistake seems to take root in the fact that Pong was the first game to break through into popular culture, and so, many magazines at the time cited it as “the first videogame“.

Stuart goes on to add that, in the 1970’s and 1980’s, there were no such things as Google or the internet, and a trip down to the library wouldn’t reveal much of anything regarding the history of videogames. So, people in general just accepted Pong as the first ever videogame to exist, and it was all right. But the video shows there are contenders to being the first video game dating back to 1953!

Reproduction of a Sinclair User magazine article, as it appears in Stuart’s video

The thing is, I needed to share this video. It’s just a so-well documented story of videogames that I couldn’t miss the opportunity. For about 60 minutes, the duration of a documentary, which is undoubtedly another way to call this piece, we take a deep dive into history: the first-ever videogame candidate is revealed, but not only that. We also learn about computers, transistors, famous people like Nolan Bushnell and when did video games become video games, that is, who in the world first used the term and how it came to be. Not to mention the many references to articles, magazines and books.

That’s a complete meal if you, like me, are into videogames, history and lifelong learning.

Screenshot of a 1979 IBM training material — or presentation slide

I’ve come across this image while browsing through my RSS feeds this week. Produced in 1979 by someone at IBM — although it’s not clear to me whether it came from an internal meeting presentation slide or a training material, not that this matters —, the sentence the image brings was presented in the context of future technology, both hypothetical and real.

What called my attention and made me think about writing a post was the sentence, “A computer can never be held accountable. Therefore a computer must never make a management decision”. To me, despite being from roughly 40+ years ago, it completely relates, in 2023, with all the artificial intelligence hype, specially when everyone at Sillicon Valley seems to have elected it as a kind of panacea for every humanity problem.

I’ve been meaning to write about it for some time now, so here it goes: I believe that, despite all this hype around AI, all the talk about how it could outperform humans and take our jobs is a big nonsense. Contrary to Geoffrey Hinton, the supposed “godfather of AI”, who, as Paris Marx recently put, believes AI is now very near the point where it becomes more intelligent than humans, “tricking and manipulating us into doing its bidding”, I’d guess that’s something very far from happening at all.

For one thing, AI faces several challenges of its own already, among which the environmental impacts its required processing power may generate, the difficulties and social impacts its algorithms can generate, denying someone credit or by mistakenly taking humans for monkeys. Recent AI has a long road to go down while improving on its own.

Language models, Chat GPT being the most hyped one, although sounding very reasonable while providing their answers, are nothing but parrots in the sense they acquire big amounts of raw data — texts from all over the internet, therefore varying largely in quantity, quality and veracity — and recombine, remix and rewrite them to create a mostly reasonable, human sounding answer. Don’t get me wrong, this is amazing, as it is very difficult to create. But to me it isn’t enough to support the hype that goes by, calling a LLM “intelligent”. LLMs don’t have the ability to think, let alone reach the level of human intelligence as AI currently is. They need training (by humans), need continuous adjusting and refining and yet are susceptible to errors, inconsistencies and hallucinations. And as such, again in my opinion, they’re subject to that sentence in 1979: they cannot be held accountable for what they produce, or say. They are so not intelligent that as soon as an error is made, it takes a human to readjust and rewrite its program so the decisions are corrected from that point on. This means their intelligence will always be as good as the limits of the algorithm.

Finally, there are roles that must remain performed by humans. Last January I was listening to this episode of the Tech Won’t Save Us podcast where Timnit Gebru, CEO of the Distributed AI Research Institute and former co-lead of the Ethical AI research team at Google, talked, among other things, about neural networks:

“For some people, the brain might be an inspiration, but it doesn’t mean that it works similarly to the brain, so some neuroscientists are like: Why are you coming to our conferences saying this thing is like the brain?“

Timnit Gebru, on neural networks

Neural networks have been inspired by the human brain. By trying to emulate the brain waves and electrical pulses that get in motion when we think and when we make decisions. But they’re not a copy of our brains. Nor work exactly like it. Nor can decide like we decide, no matter how well trained it is. So, there we are again, back in 1979: computers can’t be held accountable.

But imagine for a moment computers could think and artificial intelligences could make decisions. The idea of complex, not transparent, autonomous systems taking care of our finance systems, food supply chains, nuclear power plants and military weapons systems would be horrible. The same if our doctors for example were replaced by robots. The same if out teachers. In all these situations, decisions need to be made by human beings, so the roles must remain with humans. And if that ever changes, in my opinion, it will be the irrevocable sign humanity has lost itself.

Lucky enough, these scenarios are (still) dystopian books scenarios.

I’m so disappointed that I only came to know about it this week — but, as they say it, better late than never, isn’t it? The thing is, Twitter user small worlds is creating tiny sci-fi stories in 2023, and publishing each one as a single image, one per day.

As someone who enjoys both reading — and, quite once in a while, also writing —, I was immediately drawn to the tiny pieces, both because they are science fiction micro posts, and because they follow the likes of Black Mirror, a satiric British TV series mixing sci-fi and the idea of modern technology, such as AI, running out of control and making humanity dive into obscure, alternative near and quite dystopian futures.

From all the pieces published so far, I’ve selected 10 that, to me, are very interesting, and I’m sharing them in this gallery below:

They’re all very good, don’t you think?

I found it very interesting to learn that, likely following Italy’s example, Europe as a whole is starting to organize to create some kind of specific legislation to regulate AI.

In my understanding, the main reason authorities have to start thinking about AI regulation doesn’t lie in AI being dangerous or out of control, but in the fact that we, as humans, have a very prolific imagination. And with AI models available to millions of people right now, not requiring anyone to have the slightest technical knowledge to use them, you can imagine what happens. Take, as an example, the guy who used Midjourney to create a fake image of the Pope wearing a white puffy jacket.

The Pope, in a puffy white jacket, as created by Midjourney AI model

Consider also Claudia, a 19 year-old, beautiful and horny woman, also 100% created via AI, the brainchild of two computer science students who decided to create her as a joke, after knowing about the story of a a guy who made $500 catfishing users with photos of real women. And they succeded.

Or take Alexander Hanff’s case as a final example. ChatGPT wrongly stated to Alexander, a renowed computer scientist who happens to be very much alive, that he had passed away in 2019.

Meet Claudia: as beautiful as she’s fakely generated by AI

These examples, at least to me, all reflect the need to institute some kind of regulation. I just don’t think doing such regulation is going to be that easy. But I’ll come back to that in a moment.

According to a report by the Financial Times published this week, members of the European Parliament intend to create Europe’s Artificial Intelligence Act, a sweeping set of regulations on the use of AI, among which is asking for developers of products such as ChatGPT to declare if copyrighted material is being used to train their AI models, so content creators can demand payment when applicable.

They also want responsibility for misuse of AI programmes to lie with their developers rather than with small business (and persons) using it, what I don’t think it’s a bad idea… but in my opinion, the most interesting obligation the European AI Act may bring to reality is for LLM chatbots to explicitly tell users that they are not humans.

You might think that a language model explicitly telling you that it is not human is unnecessary. But consider all this coverage media is giving to AI recently: it feeds peoples’ imagination, making them believe artificial intelligence LLMs might have abilities and consciousness they don’t actually have. I myself have spent a couple of hours discussing this exact point with my parents a couple of weeks ago, and I can say that it can become very difficult, sometimes, to separate fact and fiction in people’s minds.

The difficult to separate reality from imagination is fueled by the fact that, when people identify that a machine, rather than another human is interacting with them, machine heuristic comes into play, making them believe that machines are accurate, objective, unbiased and infallible, clouding people’s judgment and causing an overconfidence in machines judgement and decision making.

Also on the side of things that just don’t help in convincing other people that AI is not infallible is the behavior of humans, who tend to unconsciously assume competence even when a given technology doesn’t really warrant it and lower their guard while machines perform their tasks.

People also tend to treat computers as social beings even when the machines have only the slightest hint of humanness, as is just the case with language models. We tend to apply the same human-to-human interaction rules to the interactions we make with machines, being more polite, for instance (or have you never typed a Google query in the exact form of a question you’d ask another person, even if the computer algorithm doesn’t really need you to type in that way?). Thus, when computers seem sentient, people tend to trust them, blindly.

So take the great imagination our human brains have and combine it with these behavior biases I’ve talked about, and you have not one, but at least two good reasons wy regulation is needed for AI. Like I said before, though, I don’t think this will be easy, even if Europe and their legislators are trying to take the lead.

I believe AI is different from conventional engineering products. Take an airplane, for instance: the minds behind an airplane, and each one of their components, are perfectly able to establish how the airplane is going to behave in each one of the conditions it has been prepared to be used. So, think of a parameter, life fuel consumption or maximum speed and the engineers will always be able to answer your questions based on these projected, planned parameters, given a set of pre-established conditions.

But AI? You probably know more than one person — or a couple of them — who have at least once been amazed at ChatGPT has created, be it receiving their own made prompts, be it because they’ve watched a video or read an article telling what happened after someone prompted them to do something. Think AI and you’ll always be surprised. There’s even hallucinating AI!

Ask these language models the same question twice. Notice you’ll never receive the same answer, because the model will always process your query a little differently each time. This means that, contrary to my airplane example above, none of the engineers who develop these AI models can precisely tell you what will be the resulting product of any of the models. So… how do you legislate about something unpredictable?

The unpredictability of artificial intelligence models will also require developers to envision ways in which the computer might behave, trying to be always one step ahead of potential violations of social standards and responsibilities. So, periodic audits of AI’s outcomes will probably need to be created by whatever regulations show up.

I believe good regulations reduce risks. But again… AI is, at least for the moment, unpredictable. And laws require well defined matters to work better. Is it at all possible to define AI well, being it a field still evolving? Most of the material I usually read on AI regulation is in English, and most of it says many technology related legislations have failed in the past, even for subjects more defined, like e-mail, because of the slowness to adapt to rapid changes in technology. Most of the time, laws become obsolete the moment they are introduced.

Another aspect yet to consider is the actual need for AI-specific regulation. Some people, like John Villasenor, Professor of Electrical Engineering, Law, Public Policy, and Management at UCLA, believe that many of the potentially problematic outcomes from AI can be addressed already, by existing legislation.

John believes that algorithms used by banks which end up being discriminatory in loan application decisions are subject to the Fair Housing Act, already in place in US. AI in a driverless car which gets involved in an accident is subject to a products liability law.

I believe that even if John is partially right, AI, the way it is being promoted and used, doesn’t reach only Americans. It’s spread worldwide, and there are countless countries, like mine, for example, where such legislations, so vital to support AI misfires, have not even been discussed yet. And there’s still the fact that when a country decides to push limits against a technology, the developers can always decide to move to a less regulated country to continue working.

Now, I have worked for quite some time with regulating processes and creating procedures. When we’re talking about processes, they’re subject to change as much as technology, because of continuous improvement and continuous evolution. When a process evolves, we revisit its associated procedures and update them, reflecting the necessary changes. When you regulate technology and it evolves from its initial state, the same should happen: update the related legislation. But as it happens with processes, changing legislation to an updated version is easier said than done: people, time and will sometimes, more often than not, are lacking.

A edição de 7 de abril da newsletter do The Hustle menciona este vídeo, em que Jamal Meneide explica as diferenças entre machine learning e deep learning, dias técnicas de treinamento de modelos computacionais e classificação de dados:

Jamal Meneide, no vídeo do Hubspot

Machine learning é uma técnica que utiliza algoritmos ou modelos estatísticos para permitir que uma máquina tome decisões cada vez mais acertadas ao longo do tempo, conforme mais dados alimentam seu modelo computacional. Atualmente a técnica é usada no diagnóstico mais preciso de doenças e na previsão de preços de ações do mercado financeiro.

A técnica usa dados estruturados e anotados labeled data, dados aos quais rótulos ou classificações são associadas para ajudar o algoritmo a compreender o mundo ao seu redor — para permitir que as máquinas prevejam e criem resultados independentemente, conforme acumulam conhecimento sobre uma tarefa que devem realizar.

Dados anotados em uma imagem (Reprodução)

O uso de labeled data demonstra que um algoritmo de machine learning requer inputs iniciais fornecidos por seres humanos, para que o modelo possa diferenciar as características específicas entre objetos. Com o tempo a máquina aprenderá as diferenças com um grau de confiança tal que poderá caminhar com as próprias pernas.


deep learning é um subconjunto de machine learning, atualmente empregado na criação de carros que se dirigem sozinhos, por exemplo. Enquanto o uso de machine learning visa treinar uma inteligência artificial através de dados e algoritmos, no deep learning o que se busca é imitar o comportamento do cérebro humano. Nosso cérebro possui cerca de 86 bilhões de neurônios interligados, transmitindo sinais químicos, elétricos e informações a todo momento. O deep learning utiliza uma rede neural artificial para selecionar características distintas entre os objetos sem intervenção humana, utilizando o mesmo processo que os neurônios do nosso cérebro.

Uma certa informação sobre um objeto é capturada por uma primeira camada da rede neural e repassada às camadas subsequentes, gerando várias interações. O processo se repete e se ajusta, treinando a rede neural que, se baseando apenas em dados não estruturados, não precisa de intervenção humana para caracterizar objetos. Quanto mais interações, mais eficiente se torna o modelo: ao observar padrões de repetição, o deep learning agrupa os dados e descobre padrões ocultos, através de aprendizagem não supervisionada.

Mas reproduzir o comportamento do nosso cérebro requer uma enorme quantidade de dados para treinar a máquina: assim, a alta precisão de um modelo de deep learning é rivalizada com o grande tempo de espera necessário para processar os dados, tornando a técnica de machine learning mais indicada quando hardware mais poderoso não estiver disponível, por ser menos complexa e dispendiosa em termos de recursos.