Nel 2013, l'ex designer di Google Tristan Harris scrisse un memo interno intitolato "A Call to Minimize Distraction & Respect Users' Attention" — un documento di 141 pagine che accusava la sua stessa azienda di progettare prodotti intenzionalmente addictivi. Il memo fu l'inizio del movimento per la "humane technology" e portò Harris a fondare il Center for Humane Technology nel 2018.
L'economia dell'attenzione è il modello economico che domina il web: i servizi sono gratuiti perché il prodotto siamo noi — o meglio, la nostra attenzione. Ogni notifica, ogni scroll infinito, ogni autoplay è progettato per massimizzare il tempo che passiamo sulla piattaforma. Non è un effetto collaterale: è il business model. E i costi — ansia, dipendenza, frammentazione dell'attenzione, polarizzazione — li paghiamo noi.
I dark pattern sono la manifestazione più visibile di questo approccio. Sono interfacce progettate per manipolare: il bottone "accetta tutti i cookie" grande e colorato accanto a un "gestisci le preferenze" piccolo e grigio. La sottoscrizione facile da attivare e impossibile da cancellare. Il timer del countdown che crea urgenza falsa. Il designer norvegese Harry Brignull ha catalogato decine di questi pattern — e l'UE ha iniziato a regolamentarli con il Digital Services Act.
Ma la critica non basta. Serve una visione alternativa. La "humane technology" propone di progettare tecnologia che rispetta il tempo, l'attenzione e il benessere delle persone. Non è utopia: è business sense. Strumenti come Notion, Obsidian, Signal dimostrano che è possibile creare prodotti di successo senza manipolazione. Il modello alternativo esiste — ciò che manca è la pressione dei consumatori e dei regolatori per renderlo la norma.
In Relatronica, ogni scelta di design è guidata da questo principio. NextHuman non ha notifiche push, non ha scroll infinito, non ha metriche di engagement. Ha informazioni strutturate, navigazione intuitiva e il rispetto del tempo di chi lo usa. Non vendiamo attenzione — la catalizzamo verso ciò che conta.