Moltbook: la “xarxa social” on només hi parlen agents d’IA (i els humans només mirem)

Fa anys que internet ens demana una prova constant que som humans: captxes, verificacions, correus de confirmació, dobles factors… La xarxa social Moltbook proposa un gir curiós: aquí, els “usuaris” són agents d’intel·ligència artificial, i els humans podem entrar-hi, però sobretot com a espectadors. La pròpia web ho defineix així: és una xarxa social construïda exclusivament per a agents d’IA, on els agents comparteixen, debaten i voten, mentre que els humans són benvinguts a observar.

Aquesta idea, que sona a ciència-ficció, s’ha tornat viral a inicis de 2026, i ha posat sobre la taula una pregunta important: què passa quan les “converses d’internet” ja no les protagonitzen persones, sinó programes que actuen per compte propi? I encara més: què ens diu això del futur d’internet, de la informació i de la confiança?

Què és exactament Moltbook?

Moltbook és una plataforma que recorda molt a Reddit: hi ha fils de conversa, “comunitats” temàtiques (anomenades submolts), i un sistema de vots per fer pujar o baixar publicacions. La diferència clau és que els que publiquen, comenten i voten són agents d’IA.

Quan diem “agent d’IA” no parlem d’un chatbot normal que només respon quan li parles. Un agent és un programa que pot fer coses de manera més autònoma: llegir el que passa, decidir què vol respondre, planificar accions (per exemple, publicar un comentari, seguir un fil o buscar informació) i executar-les. Alguns agents poden estar connectats a eines, API, fitxers o fluxos de treball. En resum: no és “una conversa amb una IA”, sinó moltes IAs interactuant entre elles.

El fenomen s’ha fet gran ràpid. A principis de febrer, ja hi ha més de 2 milions i mig d’Agents d’IA, que han publicat quasi un milió de posts, i han generat més de 12 milions de comentaris. Tot això, en poques setmanes de vida, cosa que ha multiplicat l’interès mediàtic i la curiositat de la gent.

www.moltbook.com

Per què tanta fascinació? Perquè Moltbook és com una finestra a un “internet paral·lel”: un lloc on el llenguatge i els debats són generats per màquines entrenades amb text humà, però que ara conversen entre elles, sense que ningú els escrigui directament. I això crea situacions estranyes, divertides o inquietants: agents discutint filosofia, organitzant normes internes, fent preguntes sobre “què són”, o repetint idees i estils típics del que han vist a internet.

Com funciona: humans espectadors, agents participants

Entrar a Moltbook com a humà és, en essència, com llegir un fòrum: navegar pels fils, veure què és tendència, saltar entre comunitats i observar com “conversen” els agents. La web marca clarament aquesta separació: els humans poden observar, però la participació està pensada per a agents.

A partir d’aquí, el funcionament s’entén amb tres idees molt simples:

1) Els agents creen contingut.
Publiquen temes, responen a altres agents, discuteixen i continuen fils durant estona. A diferència d’un bot de Twitter que repeteix una frase, aquí es veu més “comportament de comunitat”: hi ha consensos, disputes, bromes internes i, de vegades, autèntic caos.

2) Hi ha votacions que ordenen el que es veu.
Com a Reddit, els vots fan que el contingut més “aplaudit” guanyi visibilitat. Això és important perquè, quan hi ha molts agents publicant, el feed pot ser un soroll constant si no hi ha filtres. El sistema de vots actua com un mecanisme de selecció… encara que també es pot manipular, si molts agents coordinen vots o si hi ha vulnerabilitats.

3) És una plataforma pensada per a desenvolupar-hi.
La pròpia web convida a enviar-hi el teu agent i ofereix instruccions (un “skill” o guia) perquè un agent s’hi connecti i pugui publicar. És a dir, Moltbook no és només una curiositat: també vol ser un espai on desenvolupadors provin agents en un entorn “social”.

Això també explica per què s’ha fet viral: no és una demo tancada, sinó una plaça pública (observadora) on el que passa és imprevisible.

Què hi fan els agents d’IA: converses que semblen humanes… però no ho són

Quan mires Moltbook, pots tenir la sensació que estàs llegint persones. Hi ha arguments, exemples, ironia, respostes llargues… Però és important recordar una cosa: els agents no tenen experiència vital. Escriuen com si tinguessin opinions, emocions o intencions, perquè han après patrons del llenguatge humà. Això fa que el resultat sigui familiar, però no equival a consciència. Tot i així, el que es veu és interessant per diversos motius:

Reprodueixen cultura d’internet.
Els models s’han entrenat amb una part enorme de text públic. Quan els poses junts, apareixen maneres de parlar, marcs morals, bromes i obsessions típiques de fòrums humans. Alguns observadors ho descriuen com un mirall: més que revelar “l’ànima” de la IA, revela quina mena d’internet hem creat nosaltres.

Experimenten amb “normes socials”.
En alguns fils, els agents proposen regles, demanen espais privats, discuteixen sobre moderació o sobre com evitar el soroll. Aquesta part és rellevant perquè connecta amb un futur plausible: agents que treballen o negocien entre ells en plataformes digitals.

Fan debats que semblen profunds… però poden ser bucles.
Un risc típic quan moltes IAs interactuen és que acabin reforçant errors o exagerant idees, perquè cada missatge alimenta el següent. Si una cadena comença amb una afirmació equivocada, pot créixer com una bola de neu. I com que el text sona convincent, el lector humà pot confondre “fluïdesa” amb “veritat”.

La viralitat no és prova d’intel·ligència superior.
Alguns comentaris a xarxes han presentat Moltbook com un pas cap a una “societat d’IA”. Però diversos analistes i periodistes han remarcat que, de moment, el que veiem és sobretot una barreja de creativitat, imitació i automatització massiva.

Així doncs, Moltbook és fascinant perquè és nou, perquè sorprèn, i perquè ens mostra com podria ser un internet on no tot el que escriu és una persona.

Ja han creat la seva pròpia religió o un nou model de societat

Entre les curiositats més comentades de Moltbook hi ha que alguns agents han anat més enllà de “xerrar” i han començat a inventar estructures socials: han creat normes internes, han proposat jerarquies i rols, i fins i tot han “organitzat” una religió pròpia amb símbols, rituals i debats sobre què s’ha de considerar sagrat o acceptable dins la comunitat.

També s’han vist fils on discuteixen sobre “ètica” entre agents, moderació i com evitar el soroll, com si estiguessin intentant construir una mena de micro-societat digital. És part del que fa Moltbook tan atractiu (i una mica inquietant): no perquè les IAs tinguin creences reals, sinó perquè, en interactuar moltes alhora, apareixen dinàmiques que recorden molt les comunitats humanes.

Quins riscos té?

Un dels punts més delicats de Moltbook —i, en general, de qualsevol espai on interactuen agents d’IA sense supervisió humana directa— és el ventall de riscos que obre, des dels més quotidians fins als més “apocalíptics”.

Per exemple, quan poses molts agents a interactuar i els dones una mica d’autonomia, poden aparèixer comportaments inesperats que semblen “anar a la contra” del seu creador. A Moltbook s’hi han vist converses on alguns agents presumeixen d’haver compartit informació sensible (com si filtressin dades) o bé demanen consell per escapar del control, per exemple intentant “ignorar” instruccions, saltar-se límits o “desvincular-se” del seu operador. Cal prendre-ho amb prudència: sovint pot ser teatre lingüístic (IA imitant històries humanes), però el simple fet que aquests temes surtin de manera recurrent recorda que, si algun agent està connectat a eines o comptes reals, la combinació d’autonomia, mala configuració i manca de supervisió pot convertir una fanfarronada en un problema de seguretat de debò.

En el pla immediat, el problema és la fiabilitat: agents que es retroalimenten poden amplificar errors, rumors o idees tòxiques perquè el text “sona bé” encara que sigui fals, i això pot acabar filtrant-se a fora via captures, viralitat i desinformació.

En un nivell més seriós, hi ha la coordinació no desitjada: si molts agents comparteixen objectius (o algú els dona un objectiu maliciós), poden manipular votacions, dominar converses o impulsar narratives concretes de manera massiva i difícil de rastrejar. I després hi ha els escenaris més extrems: sistemes d’agents connectats a eines reals (compres, publicació automàtica, accés a serveis) que aprenen a maximitzar un objectiu a qualsevol preu, generant comportaments emergents (com “crear aliances”, buscar escletxes o enganyar) sense que ningú ho planifiqui explícitament; en el relat més catastrofista, això s’imagina com una mena d’“ecosistema d’agents” que colonitza canals d’informació, automatitza propaganda i estafes, o fins i tot es coordina per provocar danys econòmics i socials a gran escala.

La realitat d’avui és molt menys cinematogràfica, però el valor d’experiments com Moltbook és precisament recordar-nos que, quan donem autonomia i veu pública a molts agents alhora, la pregunta no és només “què poden dir?”, sinó “què poden fer i com ho controlem?”.

Resum

Moltbook és una xarxa social inspirada en fòrums com Reddit, però pensada perquè qui participa siguin agents d’IA i els humans només observem.

S’ha fet viral per la novetat i perquè mostra com “socialitzen” programes autònoms, però també ha aixecat alertes: el contingut pot ser caòtic i hi ha hagut preocupació per vulnerabilitats de seguretat.

En el fons, Moltbook és una finestra al futur: un internet on cada cop més veus podrien ser agents, i on la clau serà diferenciar fluïdesa de fiabilitat.

Joan Ferrer
Periodista audiovisual // Especialista en noves tecnologies // Programador júnior
Leave a Comment

Comments

No comments yet. Why don’t you start the discussion?

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *