JOIN IAA!

QUANDO I MEDIA INCONTRANO L’ODIO: IL RUOLO DEI BRAND NELLA LOTTA AGLI HATE SPEECH

 

Gli incontri di Collisions, web series ideata e condotta dal vicepresidente di IAA Italy Marco De Angeli, continuano nel 2021 con nuovi temi per scoprire insieme come marketing e comunicazione possano dare un contributo cruciale in settori anche molto lontani.

Dopo aver viaggiato nello Spazio con il Professor Caprara e aver capito come comunica sui social un medico professionista come Professor Antonino di Pietro, abbiamo svelato cosa si cela dietro le quinte de Il Teatro La Scala e come esprimere al meglio le emozioni in pubblicità coinvolgendo la bellissima arte della danza.

Il 2021 si apre con una puntata dedicata all’odio online, per analizzare quali sono le politiche di contrasto dell’hate speech perseguibili da brand ed istituzioni. Marco De Angeli ne ha parlato con la Professoressa Milena Santerini, Professore Ordinario di Pedagogia Generale, Direttrice dell'Osservatorio MediaVox sugli hate speech e Coordinatrice Nazionale alla lotta contro l'antisemitismo, e con il dott. Diego Ciulli, Senior di Public Policy Manager di Google.

 

Oggi parleremo di una tematica attuale: gli hate speech. Pochi giorni fa la senatrice Liliana Segre è stata vittima di altri insulti sui social dopo la pubblicazione della foto della sua vaccinazione.

 

Oggi cercheremo di capire come anche i brand possono avere un ruolo in una battaglia che riguarda tutti noi, istituzioni, privati e aziende.

 

Quando si parla di odio online non si capiscono bene quali siano i parametri e limiti, e se ci sono. Quali sono e quante sono le forme di odio online?

 

Milena Santerini. Innanzitutto, volevo ringraziarvi per essere qui, perché sono convinta che i brand abbiano un ruolo davvero molto importante.

Google è una delle piattaforme che ha lavorato di più per evolversi e cambiare al fine di contrastare gli hate speech. Il discorso d’odio si sviluppa e assume forme diverse, noi ricercatori che osserviamo i social per capire cos’è odio e cosa non lo è, qual è l’hate speech e quali sono i confini, troviamo molte difficoltà.

Finora lo abbiamo fatto in modo empirico. Si parte dalla domanda: cos’è l’odio? È difficile definirlo, lo abbiamo fatto gradualmente. All’estero, ma anche in Italia, si sta sviluppando un lavoro di detection, ma servono basi umanistiche più forti.

Un primo modo per classificare l’odio è in base ai bersagli che l’odio sceglie: non c’è una definizione condivisa a livello internazionale, ma nei documenti guida come quelli del Consiglio d’Europa si fa riferimento ai gruppi target ovvero la diffamazione, l’odio e la discriminazione di singoli gruppi o singoli individui in quanto facenti parte di determinate comunità.

L’odio è quindi legato in gran parte al tipo di gruppo emarginato e in minoranza. Ad esempio, la “razza”, il colore della pelle, il sesso, l’età, il genere, l’identità di genere, l’orientamento sessuale. In base a queste forme abbiamo classificato l’hate speech.

Poi ci sono altri modi, per esempio alcuni studiosi lo classificano in base all’intensità: parolacce, bestemmie o hate speech. Si affida la classificazione ai linguisti tra cui Tullio De Mauro che, lavorando sull’odio e sulla violenza nella XVII legislatura, ha evidenziato un aspetto molto importante che non tutti i ricercatori considerano: l’odio non è solo insulti considerati come parolacce. Tullio De Mauro ha pertanto redatto per i ricercatori un elenco, una sorta di syllabus delle parole per ferire.

Le parole per ferire sono milioni in italiano, ad esempio: associare una persona ad un animale, un normale animale come un bue diventa un epiteto; oppure una verdura, come la zucca; un mestiere come il portiere, il professore. Le parole feriscono anche se non sono parolacce.

Noi a MediaVox abbiamo individuato uno spettro che va da un’intensità minore, ad una maggiore con caratteristiche e indicatori.

Il discorso d’odio qual è? Quello che crea danno e non vuole redimere, non vuole migliorare ma colpire, esprimibile con o senza insulti e che può incitare alla violenza. È una distinzione importante infatti probabilmente Trump è stato oscurato da Twitter poiché ha oltrepassato un limite: quello dell’incitamento all’odio e alla violenza.

Il discorso di odio in Italia ed Europa può diventare un reato. Ma se si afferma che l’odio è solo ciò che incita alla violenza, con l’atto fisico, allora si toglie importanza al fatto che – come dicono i linguisti – il discorso è un atto performativo.

Affermare che il discorso è un atto performativo significa riconoscere che la parola agisce e non è solo descrittiva: con le parole il prete sposa le persone e il giudice condanna alla prigione. Con le parole si fa, non si dice soltanto. C’è un valore enunciativo che ha delle conseguenze per distinguere il discorso d’odio e le forme di violenza.

Questo ci porta a dire che dobbiamo intervenire perché l’hate speech è nella sua essenza qualcosa che crea danno e inquina l’infosfera. I brand allora, secondo me, come Mulino Bianco, dovrebbero vantarsi di avere un’impronta ecologica e lavorare contro l’hate speech.

 

Non sono classificazioni facili. È molto interessante concepire la parola come atto linguistico. Allora chiedo al Dottor Ciulli il suo punto di vista e cosa sta evidenziando Google.

 

Diego Ciulli. Noi non vediamo una crescita del fenomeno. Per prepararmi oggi ho cercato dei dati: a livello global non abbiamo dati granulari per i singoli Paesi, poiché le nostre rimozioni per istigazioni all’odio non sono geolocalizzate in quanto l’odio fa male su YouTube indipendentemente da dove è caricato l’insulto.

C’è stata una tendenza costante con un picco durante il lockdown, dovuto sia ad un maggiore uso degli strumenti internet, sia ad una maggior polarizzazione del dibattito pubblico. In generale non vedo un aumento del fenomeno online, quello che vedo è sempre più attenzione da parte della nostra Industry e delle associazioni in generale.

All’inizio Google era una mosca bianca sia nella partecipazione a convegni sia nell’introduzione di policy molto restrittive sull'incitamento all’odio. Stiamo notando che il benchmark che abbiamo segnato sta diventando prassi a livello di industria.

In generale vi è un limite di legge: ciò che è illegale offline è illegale anche online. Anche su internet si deve far rispettare la legge e limitare i comportamenti non legali. Da anni in Google non permettiamo che sulle piattaforme, soprattutto YouTube, sia tollerato l’odio, nemmeno quello “legale”, pertanto rimuoviamo tutti i contenuti lesivi della dignità di una persona o un gruppo.

Elaborando le Community Guidelines abbiamo definito una lista ampia di categorie di soggetti che non possono essere oggetto di diffamazione come gruppo, ad esempio: l’orientamento di genere e razziale, l’età. È inoltre vietato anche l’odio verso singoli individui. Vi è il tentativo di coniugare ciò che, pur essendo legale, non rende YouTube una piattaforma sicura perché YouTube è particolare: è gratuita e usata da miliardi di persone che vogliono un contesto sicuro.

Molti bambini usano YouTube quindi serve responsabilità negli utenti. Allo stesso tempo è anche una piattaforma pubblicitaria che genera profitti mettendo a disposizione spazi per gli inserzionisti i quali non vogliono che i loro brand siano associati a messaggi d’odio.

In questo weekend abbiamo preso una decisione contro il nostro stesso interesse di business: un brand ha pubblicato un video pubblicitario che mostrava un poliziotto impiccato, lo abbiamo rimosso in pochi minuti nonostante fosse un cliente. Abbiamo fissato un limite molto ampio: quando c’è un disallineamento tra l’interesse della tutela dell’odio e l’interesse commerciale, tende a prevalere l’interesse della tutela dell’utente.

Durante il lock down ci sono stati due fenomeni interessanti.

Il primo è un picco di segnalazioni, quantitativamente significativo, per il contenuto d’odio. Il trend normalmente è una rimozione di circa 90 mila video a trimestre, non è molto, ma contestualizzando rappresenta l’1% di tutte le rimozioni su YouTube. Ad esso si sommano altri contenuti che sono comunque sfumature di odio come: lo 0.8% di terrorismo, molto vicino all’odio; l’1% di cyber bullismo. Durante il lock down le rimozioni per l’odio specifico sono state nell’ordine delle 130 mila a trimestre.

Il secondo è relativo ad un’evidenza che ci ha permesso di imparare. Durante la pandemia avendo dovuto chiudere gli uffici, abbiamo avuto meno persone a disposizione per svolgere questa attività di rimozione e quindi c’è stata più delega all’Intelligenza Artificiale. Abbiamo scoperto che pur cancellando molto di più sbagliavamo anche molto di più perché, in particolare quando si parla di hate speech, le macchine non sono in grado di conoscere il contesto.

È stato un grande momento di apprendimento perché in Google il primo pensiero è sempre “con la tecnologia il problema si risolve”, ma in questo caso non è così. Se è semplice capire certi tipi di odio, come la propaganda che si ripete con schemi fissi, l’odio citato precedentemente, ovvero quello di associazione ad un animale, è più complicato poiché la stessa frase può essere usata sia per propagandare l’odio sia per contrastarlo.

Purtroppo, il problema non è di facile soluzione, non basta disegnare l’algoritmo. L’algoritmo in certi ambiti, come per la pornografia online e sui siti diffusi, funziona in quanto le macchine sono in grado di identificare i contenuti illeciti. Nel caso dell’odio il contesto ha più importanza, diventa quindi fondamentale il dialogo con le associazioni e con la società civile.

 

La macchina arriva fino ad un certo punto, poi serve l’intervento umano per capire l’odio.

 

Professoressa Santerini, come si muovono le istituzioni pubbliche e qual è il dialogo tra quelle pubbliche e private?

 

Milena Santerini. Sono d’accordo, non abbiamo dati per dire che c’è una crescita esponenziale quantitativa. Il problema è che l’hate speech è più visibile ed è rilanciato quando ci sono personaggi visibili come la Senatrice Segre.

Cosa comporta? Si passa un limite, e quindi si crea assuefazione. Non sono preoccupata della diffusione quantitativa, le piattaforme intervengono in questo senso, ma sono preoccupata perché si alza l’asticella: si banalizza la shoah, si toglie l’argine di un valore morale fissato nel Dopo Guerra. Se si banalizza la shoah allora si arriva a dire che è normale una discriminazione simile.

L’Italia è preoccupata, ci sono grandi scandali, i mass media tradizionali sono i primi a rilanciare i messaggi che si trovano sui social. Spesso mass media tradizionali hanno un effetto di amplificazione rispetto a ciò che succede sui social, amplificando casi che diventano predominanti nel villaggio globale.

Spesso si parla ma non si agisce. L’Italia è inserita nel contesto europeo: l’Europa ha scelto la strada della persuasione e ha redatto un Codice Di Autoregolamentazione delle piattaforme inducendo a rimuovere di più. Nel 2017 abbiamo dialogato con Twitter e Facebook, ma serve fare attenzione perché Facebook aveva come responsabile in Italia una persona, con sede in Irlanda.

Quindi serve un grande investimento umano, perché le macchine sbagliano e non riconoscono il contesto. L’Italia è allineata alla tendenza europea che prevede una collaborazione con i social. Come persone viviamo sui social, serve pertanto una responsabilità e una corresponsabilità.

Abbiamo poi attuato degli interventi settoriali che non hanno funzionato efficacemente. Un esempio è la legge sul cyberbullismo che aveva un’impostazione corretta: partiva dal presupposto che un giovane vedendo il proprio partner condividere con i pari foto sue personali - anche intime - senza autorizzazione, vuole punire il colpevole ma soprattutto vuole che le foto spariscano subito.

Quindi abbiamo lavorato sul tema della rimozione. A distanza di 2-3 anni non abbiamo prove che abbia veramente funzionato. È interessante perché significa che le persone non ricorrono a queste soluzioni quando si trovano in tali situazioni: non si fidano o non lo sanno.

La strada è però quella corretta: costringere chi diffonde odio a rimuoverlo subito. In questa direzione vi è anche la proposta della legge francese e tedesca, che potrebbe essere adottata in Italia, che implica il mutuare una rimozione non tempestiva quando il Garante o l’Autorità lo richiede.

 

Ma un ragazzino che è vittima sa quello che deve fare? Serve un lato educativo nel sistema?

 

Milena Santerini. Si, l'educazione viene coordinata dalla polizia postale una volta l’anno. I rappresentanti della polizia postale spiegano ai ragazzi che in tali situazioni è necessario reagire, chiamare e chiedere la rimozione. Serve informare bene le persone, i cittadini non sanno cosa fare.

Non sempre però la rimozione è rapida. Per questo citavo il Codice di Autoregolamentazione Europeo: ci sono degli enti che segnalano e ottengono subito una rimozione rapida dei contenuti perché dispongono di una corsia privilegiata, serve pretendere subito la rimozione e attivare di più questi canali. Molto stanno facendo anche le università e le reti, è l’ambito dell’attivismo.

 

Abbiamo sentito un invito a fare di più. Serve trovare delle parole chiave, nella nostra agenda è Educazione, ma serve investire tutti di più.

 

Diego Ciulli. Si, disponiamo di un sistema ben funzionante che prevede un canale preferenziale per le segnalazioni. Le nostre argomentazioni non a supporto della legge tedesca o francese si basano sul fatto che spesso quando si hanno questi canali con le istituzioni, i tassi di rimozione sono più rapidi rispetto a quelli imposti dalla legge: la collaborazione è più efficace di un irrigidimento tendenzialmente derivato dalla normativa.

Noi rileviamo la necessità di più rilevatori speciali, c’è disponibilità da parte nostra a supportali: ogni soggetto in più aumenta più che proporzionalmente la capacità della rete. Per ogni segnalazione non solo si rimuove un contenuto ma i nostri collaboratori imparano, così anche l’Intelligenza Artificiale.

Inoltre, si ha il tema educativo, io credo sia quello che aiuta a risolvere il problema. Internet è solo all’inizio e spesso è vissuto come se fosse un media tradizionale, dove si ascolta senza prendere azione.

Questo fa sì che il “cattivo” possa muoversi più rapidamente del “buono”: non serve solo insegnare ai ragazzi a segnalare quando sono vittime, ma serve anche insegnare ad essere parte attiva e intervenire nel dibattito online per diffondere messaggi positivi.

Credo che la soluzione sia creare un ambiente dove l’odio non è ammesso e dove le persone non hanno paura di alzare la voce. Quindi non solo serve segnalare ma anche veicolare un messaggio positivo.

Per questo noi abbiamo fatto una collaborazione per il cyber bullismo in cui contrastiamo la disinformazione. Più nel mondo che in Italia, si tratta dell’esperienza dei Creators For Change, una serie di figure che sono role model, un riferimento per i giovani. Abbiamo chiesto agli youtuber di veicolare messaggi positivi nella community: quando è la star di internet la prima ad affermare che non è divertente prendere in giro si ottengono ottimi risultati.

 

I segnalatori speciali, e la necessità del passaggio da rimozione a all’azione positiva può vedere i brand protagonisti? Oppure lo sono già, sfuggendo all’attenzione?

 

Diego Ciulli. Per nostre policy no, per noi lo possono essere le no profit e le istituzioni. Con i brand collaboriamo per iniziative di educazione in quanto quello è più il ruolo tipicamente da brand.

Per essere un segnalatore speciale, e farlo bene, serve una conoscenza specifica su ogni sfumatura di odio: i migliori sono le associazioni di genitori che contrastano il cyber bullismo, o quelle di una certa etnia. È difficile per un brand farlo, mentre è più semplice per loro condurre iniziative di sostenibilità sociale.

 

Professoressa Santerini, rimanendo sull’educational, è possibile attivare gli spettatori? Ci saranno gli haters ma il fenomeno vede anche figure intermedie che assistano e non fanno nulla.

 

L’educazione può portare questi attori ad agire correttamente?

 

Milena Santerini. La rimozione è solo uno degli aspetti, ma non basta, è un intervento ma serve un’ecologia della rete. Sono molto d’accordo sul coinvolgere gli spettatori: si può usare il triangolo che si usa anche per l’antisemitismo, chi fa il danno? Il colpevole e lo spettatore, è importante chiarirlo perché l’odio è frutto di una massa di gente che collabora, ripete e amplifica.

Ci sono però anche molti manipolatori, per loro la risoluzione è la rimozione, l’individuazione e il controllo. Noi abbiamo fatto un Osservatorio su Twitter usando come parole chiave “ebrei” e “virus”. Abbiamo scaricato tutti i tweet e il 15% degli italiani pensa che siano gli ebrei a diffondere i virus. I manipolatori sono seriali, è su di loro che serve intervenire.

Si ha gente che assiste stando in silenzio, magari nelle community le persone per bene si ritirano sapendo che possono diventare bersaglio, ma è importante attivarli perché la rilevanza è l’arma che abbiamo a disposizione. L’odio non è maggioritario ma si amplifica e oltrepassa i limiti, creando assuefazione alla volgarità.

È necessario collaborare con i brand che rappresentano sia il vaccino che la cura. Le campagne contro l’hate speech sono campagne dove per prima cosa è bene avvertire che si sta creando un danno, e puntano spesso sulla razionalità delle persone.

Abbiamo bisogno dei brand che sono competenti nel mercato pubblicitario e che sanno agire sulle nostre emozioni. Finora abbiamo lavorato sulla consapevolezza, la coscienza critica, le persone però sono consapevoli di recare danni per questo i brand devono veicolare messaggi dove vengono rappresentati modelli positivi, uscendo dal contesto di rabbia e frustrazione.

 

Al di là delle piattaforme, ci sono accordi anche con brand privati di produzione, mass marketing, multinazionali?

 

Milena Santerini. Sarebbe molto utile. Noi avevamo lanciato un blog di contro informazione preventiva per creare nel web una rilevanza di messaggi positivi. Avevamo bisogno di creativi, finora non li abbiamo trovati.

 

 

Il bilanciamento tra libertà di espressione e contrasto all’odio ha trovato un suo equilibrio? C’è chi crede che sia una limitazione delle libertà?

 

Milena Santerini. Quello che non è permesso offline non deve essere permesso online. In Europa e in Italia c’è una sensibilità diversa rispetto quella americana che protegge il free speech in modo eccessivo. In Italia si ha il bilanciamento tra l’Articolo 3 (pari dignità formale e sostanziale) e l'Articolo 21 (Libertà di manifestazione del pensiero) della Costituzione, un bilanciamento tra libertà di espressione ma divieto di discriminazione.

Tutto quello che discrimina influisce sulla nostra società e lede la democrazia. Questo bilanciamento è tutelato dai Giudici, a mio parere quando si arriva a quel punto la giustizia italiana dispone degli strumenti per decidere bene, e lo fa.

Non vi sono problemi quando si ha la necessità di decidere relativamente ai grandi principi, ma si ha il problema dell’odio liquido molto diffuso fatto anche di immagini, volgarizzato e banalizzato, che è al confine tra ciò che è lecito e ciò che non lo è. Quindi c’è il problema della diffusione liquida di tali aspetti. La discriminazione tocca i fondamenti della democrazia, non è libertà di espressione l’hate speech.

 

Noi parliamo spesso di sostenibilità inserendo tematiche care, come clima e diversity. Quando le aziende comunicano a livello corporate includono queste tematiche che fanno parte dei loro valori.

 

La Professoressa Santerini ha lanciato un messaggio in cui chiede ai pubblicitari di essere d’aiuto nell’elaborazione di contenuti che facciano leva sulle emozioni. Qualche brand già percorre questa strada, come Johnson & Johnson che in America ha disposto programmi Educational per insegnare alle mamme come far sì che i figli siano educati fin da subito ad un dialogo che non rientri nelle tematiche di odio.

 

Voi vedete questi casi crescere? Sono casi veicolati anche nelle vostre piattaforme. C’è crescita o c’è spazio?

 

Diego Ciulli. È difficile da categorizzare in maniera quantitativa ma anche io ho questa sensazione. Soprattutto mi sembra che anche i brand stiano iniziando a percepire questo tema non solo come urgente, ma anche utile.

È un buon posizionamento con un messaggio positivo, percepito come importante e quindi inevitabilmente in crescita. Parlavo in questi giorni con Creator che volevano creare web serie su YouTube rivolte ai bambini con un messaggio educativo. Forse internet può essere anche meglio dei media tradizionali, che spesso amplificano l’odio e non lo contrastano.

La produzione di contenuto dal basso – gli UGC - su internet può far nascere nuovi gruppi e nuove iniziative, è in parte quello che succede con i Creators For Change ovvero i creator di YouTube che hanno fatto una carriera nel veicolare messaggi positivi. Spesso anche i temi dell’inclusione sono ben veicolati online.

Per le web company è fondamentale dare in modo chiaro il messaggio di essere un posto sicuro dove non si aumenta l’istigazione, la diffamazione e l’odio. Quando è partita la sensibilizzazione in Google?

È iniziato tutto da uno scandalo giornalistico poiché ad un certo punto sul motore di ricerca le persone hanno smesso di cercare per keywords, hanno capito che Google aveva iniziato a comprendere il linguaggio naturale, quindi gli utenti hanno iniziato a condurre le ricerche attraverso domande normali.

Al posto di scrivere “notizie olocausto”, come si faceva ad inizio 2000, si è iniziato a chiedere “è esistito l’olocausto?” e Google rispondeva “No”, perché l’algoritmo era ancora disegnato in modo tale da dare maggiore importanza ai contenuti più recenti o più condivisi e linkati. Siccome tutti sappiamo che l’olocausto è esistito non si sono più creati post sull’esistenza dell’olocausto, pertanto salirono nel ranking quelli dei negazionisti, che erano più recenti e più cliccati.

Tutto ciò ha portato ad una revisione complessiva dell’algoritmo, che ha cambiato i meccanismi di fondo di Google per contrastare tali fenomeni: da un lato mettere insieme la responsabilità dei brand di orientare e venire incontro a nuove esigenze sociali; dall’altro lato serve ricordare che le macchine sono macchine e quindi è necessario il supporto umano.

La grandezza di internet è anche la possibilità di dare voce ai 4 miliardi di utenti che di solito restano in silenzio, su questo potremmo fare qualcosa in più.

 

Torna quindi la richiesta di maggiore azione di tutti. Guardando al futuro: ci sono nuovi social, anche solo vocali. Sembra che l’online sia in continua evoluzione e sembra dare la possibilità agli hater di potersi inserire in nuove piattaforme. Come fare a contrastare questo fenomeno liquido che si inserisce in ogni aspetto della comunicazione?

 

Milena Santerini. L’odio non dipende dalla forma che assume: può essere parole, immagini, suoni. Naturalmente però colpisce in modo diverso. Ora dato il successo di Clubhouse è probabile che la voce dia una possibilità in più di umanizzare: con la voce si può comunicare meglio l’empatia.

Potrebbe essere un modo per migliorare la comunicazione rispetto ad un’interazione svolta solo attraverso gli schermi. Ci sono degli studi che dimostrano che uno degli aspetti chiave della mancanza di empatia rispetto a chi si colpisce è legato al fatto di non vederlo e non sentire la reazione e la sofferenza.

La voce può aiutare, ma non difende: spesso infatti nelle trasmissioni radio l’odio è molto presente. Diverso ancora è il discorso sulle immagini: se l’algoritmo fa fatica ad individuare l’odio a parole, ancora più difficile è individuare le immagini che sono sintetiche. Le immagini colpiscono subito e hanno l’effetto di far cogliere un significato prima della parte analitica. Per questo motivo ci siamo promessi di capire come individuare l’odio in immagini che è particolarmente pericoloso.

 

Quindi la contro narrazione può muoversi anche qui, indirizzando le immagini e la loro potenza verso il contrasto.

 

Ci deve essere una programmazione, come funziona la policy in Google? C’è un comitato, una policy scritta pubblica che condividete considerando la web sfera?

 

Diego Ciulli. La policy è pubblica e ben indicizzata. Tendenzialmente sono aggiornate con frequenza, ma non spesso poiché sono stabili. Le abbiamo aggiornate per fenomeni significativi, ad esempio recentemente è stata aggiornata per le fake news sul Covid-19.

Dal punto di vista interno c’è un grande sforzo per capire come le policy possano diventare realtà, si ha il dialogo con le istituzioni, le collaborazioni con le istituzioni del terzo settore, investimenti sempre più grandi. Nello scorso ottobre abbiamo annunciato l’apertura di un grande centro a Dublino per il contributo umano alla valutazione delle segnalazioni dei contenuti online.

Tre dunque sono le parole chiave che racchiudono i concetti fondamentali per contrastare l’odio online, delineati in questa puntata di Collisions.

  1. Collaborazione: tra istituzioni, privato e pubblico, dove anche i brand hanno un ruolo importante da giocare per combattere la diffusione degli hate speech.
  2. Educazione: non solo il contrasto ai discorsi d’odio ma anche un coinvolgimento attivo e positivo al fine di instaurare un dialogo comune che sappia essere fecondo.
  3. Creatività: sfruttare il lato razionale del racconto facendo anche leva sull’aspetto emotivo che la creatività abilita, per ideare contenuti sempre più efficaci.

Collisions non si ferma qui, presto una nuova puntata per scoprire se musicisti e brand vanno a tempo in un dialogo improvvisato con Saturnino, musicista e imprenditore.

Guarda la puntata integrale sul nostro canale YouTube!

 

Vuoi restare aggiornato sulle novità di Collisions?Iscrivizione_newsletter_mensile

 

collisions-informazioni
Click me

Seguici sui social