Credito:Unsplash/CC0 di dominio pubblico
La moderazione dei contenuti è un delicato atto di equilibrio per le piattaforme di social media che cercano di far crescere la propria base di utenti. Le piattaforme più grandi come Facebook e Twitter, che traggono la maggior parte dei loro profitti dalla pubblicità, non possono permettersi di perdere visibilità o coinvolgimento sui loro siti. Eppure sono sottoposti a un'enorme pressione pubblica e politica per fermare la disinformazione e rimuovere i contenuti dannosi. Nel frattempo, le piattaforme più piccole che soddisfano ideologie particolari preferirebbero lasciare regnare la libertà di parola.
Nel loro prossimo articolo, intitolato "Implicazioni dei modelli di entrate e della tecnologia per le strategie di moderazione dei contenuti", i professori di marketing di Wharton Pinar Yildirim e Z. John Zhang e il candidato al dottorato di Wharton Yi Liu mostrano come la strategia di moderazione dei contenuti di un'azienda di social media sia influenzata principalmente dalla sua modello di ricavi. È più probabile che una piattaforma in pubblicità moderi i suoi contenuti rispetto a una in abbonamento, ma quando lo fa in modo meno aggressivo di quest'ultima. Nel seguente saggio, gli autori discutono della loro ricerca e delle sue implicazioni per i responsabili politici che vogliono regolamentare le piattaforme dei social media.
Ogni giorno, milioni di utenti in tutto il mondo condividono le loro diverse opinioni sulle piattaforme di social media. Non tutte queste opinioni sono in armonia. Alcuni sono considerati offensivi, dannosi, persino estremi. Con opinioni diverse, i consumatori sono in conflitto:da un lato, vogliono esprimere liberamente le loro opinioni su questioni politiche, sociali ed economiche in corso sulle piattaforme dei social media senza intervento e senza che gli venga detto che le loro opinioni sono inadeguate. D'altra parte, quando altri esprimono liberamente le loro opinioni, possono considerare alcuni di quei contenuti inappropriati, insensibili, dannosi o estremi e desiderarne la rimozione. Inoltre, i consumatori non sono sempre d'accordo su quali post siano discutibili o quali azioni dovrebbero intraprendere le piattaforme di social media. Secondo un sondaggio di Morningconsult, ad esempio, l'80% degli intervistati desidera che l'incitamento all'odio, come i post che insultano un gruppo razziale, religioso o di genere, sia rimosso, il 73% desidera che i video che ritraggono crimini violenti vengano rimossi e Il 66% desidera che le raffigurazioni di atti sessuali vengano rimosse.
Le piattaforme di social media affrontano una sfida agendo come custodi di Internet, essendo allo stesso tempo il centro dell'espressione personale e dei contenuti generati dagli utenti. In effetti, gli sforzi di moderazione dei contenuti assorbono risorse significative delle aziende. Facebook da solo si è impegnato a destinare il 5% delle entrate dell'azienda, 3,7 miliardi di dollari, sulla moderazione dei contenuti, un importo maggiore dell'intero fatturato annuale di Twitter. Eppure né i consumatori né le autorità di regolamentazione sembrano essere soddisfatti dei loro sforzi. In una forma o nell'altra, le aziende devono decidere come moderare i contenuti per proteggere i singoli utenti ei loro interessi. I contenuti sensibili devono essere rimossi da Internet? Oppure la libertà di parola dovrebbe governare liberamente, indicando che tutti sono liberi di pubblicare ciò che vogliono, ed è decisione del consumatore di accettare o meno questo mondo della libertà di parola? Eliminare il contenuto di qualcuno riduce il godimento del sito da parte di quell'utente (e di alcuni altri utenti), mentre non rimuoverlo può anche offendere gli altri. Pertanto, in termini di incentivi economici di una piattaforma di social media, la moderazione dei contenuti può influire sul coinvolgimento degli utenti, che alla fine può influire sulla redditività della piattaforma.
Moderare i contenuti, massimizzare i profitti
Nel nostro prossimo documento, "Implicazioni dei modelli di entrate e della tecnologia per le strategie di moderazione dei contenuti", studiamo come le piattaforme di social media guidate dai profitti possono o meno moderare i contenuti online. Prendiamo in considerazione la notevole eterogeneità degli utenti e i diversi modelli di entrate che le piattaforme possono avere e deriviamo la strategia ottimale di moderazione dei contenuti della piattaforma che massimizza le entrate.
Quando diverse piattaforme di social media moderano i contenuti, il determinante più significativo è la loro linea di fondo. Questa linea di fondo può fare molto affidamento sulla pubblicità o sulla consegna di bulbi oculari agli inserzionisti o sulle quote di abbonamento che i singoli consumatori stanno pagando. Ma c'è un netto contrasto tra i due modelli di reddito. Mentre la pubblicità si basa sulla fornitura di molti, molti occhi agli inserzionisti, i ricavi degli abbonamenti dipendono dalla capacità di attirare clienti paganti. Come risultato del contrasto, anche la politica di moderazione dei contenuti nel tentativo di trattenere i consumatori ha un aspetto diverso in pubblicità rispetto all'abbonamento. È più probabile che le piattaforme di social media che utilizzano entrate pubblicitarie conducano la moderazione dei contenuti ma con standard della comunità permissivi al fine di trattenere un gruppo più ampio di consumatori, rispetto alle piattaforme con entrate da abbonamento. In effetti, le piattaforme basate su abbonamento come Gab e MeWe hanno meno probabilità di moderare i contenuti, rivendicando la libertà di parola per i propri utenti.
Un secondo fattore importante nella moderazione dei contenuti è la qualità della tecnologia di moderazione dei contenuti. Un volume significativo di moderazione dei contenuti viene effettuato con l'aiuto di computer e intelligenza artificiale. Perché, allora, i dirigenti dei social media affermano che la tecnologia non è sufficiente? Alla domanda sulla moderazione dei contenuti, la maggior parte dei dirigenti di Facebook sottolinea che si preoccupano molto della moderazione dei contenuti e destinano grandi quantità di entrate aziendali all'attività.
Scopriamo che una piattaforma di social media egoista non sempre beneficia del miglioramento tecnologico. In particolare, una piattaforma la cui principale fonte di guadagno è la pubblicità potrebbe non beneficiare di una tecnologia migliore, perché una tecnologia meno accurata crea una comunità porosa con più occhi. Questa scoperta suggerisce che la moderazione dei contenuti sulle piattaforme online non è semplicemente il risultato delle loro capacità tecnologiche, ma dei loro incentivi economici.
I risultati del documento mettono in generale dubbi sul fatto che le piattaforme di social media rimedieranno sempre alle carenze tecnologiche da sole. Facciamo un ulteriore passo avanti nella nostra analisi e confrontiamo la strategia di moderazione dei contenuti per una piattaforma egocentrica con quella per un pianificatore sociale, che è un'istituzione governativa o un ente simile che stabilisce regole per il miglioramento del benessere sociale. Un pianificatore sociale utilizzerà la moderazione dei contenuti per eliminare qualsiasi utente che contribuisce negativamente all'utilità totale della società, mentre una piattaforma egocentrica può mantenere alcuni di questi utenti, se serve i suoi interessi. Forse contrariamente alle credenze profane, scopriamo che una piattaforma egocentrica ha maggiori probabilità di condurre la moderazione dei contenuti rispetto a un pianificatore sociale, il che indica che le singole piattaforme hanno più incentivi per moderare i propri contenuti rispetto al governo.
Tuttavia, più incentivi non significano incentivi giusti. Quando si esegue la moderazione dei contenuti, una piattaforma in pubblicità sarà meno rigorosa di un pianificatore sociale, mentre una piattaforma in abbonamento sarà più rigorosa di un pianificatore sociale. Inoltre, un pianificatore sociale spingerà sempre per una tecnologia perfetta quando il costo dello sviluppo della tecnologia non è un problema. Solo una piattaforma in abbonamento avrà il suo interesse allineato con un social planner nel perfezionare la tecnologia per la moderazione dei contenuti. Queste conclusioni nel complesso dimostrano che c'è spazio per le normative governative e, quando sono giustificate, devono essere differenziate per quanto riguarda il modello di entrate adottato da una piattaforma.