Commenti

Big tech alla sfida delle competenze

  • Abbonati
  • Accedi
Cultura & Società

Big tech alla sfida delle competenze

Nonostante il termine “economie di rete” abbia un preciso e chiaro significato economico, i non-economisti tendono a confonderlo con altri concetti, come i rendimenti di scala incrementali e il learning-by-doing.

Nel caso di quest’ultimo è l’esperienza che conta. Nella letteratura economica, l’esperienza è spesso misurata dall’output cumulativo. Sebbene si tratti di un’utile semplificazione del modello, tale scelta può essere in qualche modo fuorviante in quanto suggerisce che “l’apprendimento” sia un’attività passiva che si verifica automaticamente quando viene prodotta una maggiore quantità di output. Non c’è nulla di più lontano dalla verità. Learning-by-doing richiede necessariamente investimenti nella raccolta dei dati, nell’analisi e nella sperimentazione.

L’apprendimento è di fondamentale importanza per il progresso economico. Esso però non accade “semplicemente”, bensì richiede investimenti sia a livello individuale che dal lato dell’organizzazione e della società in generale. Raccogliere dati è solo il primo passo. Per essere davvero utili, i dati devono essere trasformati in informazioni, conoscenza e comprensione.

Le economie di scala dal lato della domanda e dell’offerta sono senz’altro importanti forze economiche. Tuttavia, esse perdono buona parte del loro significato rispetto al doing-by-learning, che, a mio avviso, rappresenta la principale fonte di vantaggio competitivo nelle industrie tecnologiche.

Il caso dei motori di ricerca
Alla luce di quanto sopra, possiamo chiederci se i motori di ricerca, come Google, Bing, Yandex e Baidu, presentino o meno economie di rete. Ci importa conoscere quante altre persone stanno usando il nostro stesso motore di ricerca? Ovviamente no. Quel che conta è il rendimento del motore di ricerca usato, non il numero di persone che lo utilizzano. Ciò significa che le economie di scala tradizionali non caratterizzano i motori di ricerca.

Nei primi anni 2000, esistevano diversi motori di ricerca per scopi generici: Alta Vista, Lycos, Inktomi, Yahoo, Microsoft Live e Google (Lycos, Inktomi e Google originano dal programma di ricerca sulla biblioteca digitale nsf/darpa: un primo esempio di come i finanziamenti della ricerca governativa possano contribuire all’innovazione e alla crescita della produttività). A quei tempi era comune per le persone utilizzare più motori di ricerca. Col passare del tempo, alcuni motori di ricerca sono stati in grado di migliorare le loro prestazioni, mentre altri sono rimasti indietro. Non c’era apparente vantaggio dovuto alle dimensioni. Anzi, proprio il motore più nuovo e più piccolo sembrava funzionare meglio e migliorare più rapidamente. Il risultato è stato un consolidamento del settore caratterizzato dalla presenza di pochi motori di ricerca a uso generale.

Durante questo stesso periodo di consolidamento, abbiamo assistito all’emergere di molti motori di ricerca “a scopo speciale”, per la ricerca locale, la ricerca di acquisti, di viaggi e così via. Questi motori di ricerca tendono a essere focalizzati su argomenti commerciali, ambiti in cui era presente la maggiore circolazione di denaro (e lo è tuttora). Se consideriamo la ricerca commerciale, piuttosto che la ricerca generale, la struttura del settore risulta essere molto diversa. Il 44% delle ricerche di prodotti inizia su Amazon. Questo dato è particolarmente rilevante, dal momento che le ricerche più economicamente vantaggiose per i motori di ricerca generalisti sono quelle commerciali, poiché attirano maggiori entrate pubblicitarie. La ricerca per scopi generici si presenta come un business particolarmente arduo poiché permette la vendita del 6% di ciò che viene effettivamente prodotto, cioè dei soli clic a pagamento, per i quali la concorrenza è intensa, ma – come è facile intuire – risulta carente nella produzione di clic gratuiti. Se le classiche economie di scala dal lato della domanda non sono idonee per la ricerca, possono esserlo le economie di scala dal lato dell’offerta?

Multinazionali di internet come Amazon, Google, Facebook, Microsoft e Ibm possiedono “data center” localizzati in tutto il mondo. Molte di queste aziende noleggiano parte dell’infrastruttura informatica e di rete. Questa tecnologia di cloud computing ha il vantaggio di consentire ai nuovi entranti di aumentare le proprie esigenze di infrastruttura di calcolo all’aumentare della loro scala operativa. I data center, che in passato costituivano un costo fisso, sono ora diventati un costo variabile, così determinando un notevole aumento dei redditi per le startup tecnologiche.

CHI FA COSA (E CHI FA TUTTO)

I clienti possono ordinare potenza computazionale su richiesta. I fornitori – che gestiscono i data center – possono offrire maggiore potenza aumentando la Cpu a livello di core, incrementare il numero di Cpu sulla scheda madre, aumentare il numero delle schede madri dei rack o aggiungere più rack al data center o, ancora, aumentare il numero dei data center. A ogni livello di aggregazione corrisponde un aumento di performance più o meno in linea con la domanda.

Diverso è il discorso dal punto di vista del software. Una volta effettuato l’investimento per svilupparne uno è possibile replicarlo sostanzialmente a costo marginale zero. A tale riguardo, il software è una perfetta rappresentazione del concetto di apprendimento.

Chi vince piglia tutto
Alcuni osservatori hanno affermato che i motori di ricerca mostrano due tipi di economie di rete, dal momento che gli inserzionisti vogliono essere presenti dove ci sono più utenti e gli utenti vogliono essere presenti dove ci sono più inserzionisti.

Tuttavia, quest’ultima affermazione è difficilmente riscontrabile nella realtà, considerato che in genere gli utenti non scelgono un motore di ricerca in base al numero di inserzioni. Semmai, data una scelta tra due motori di ricerca, i consumatori preferirebbero probabilmente quello con meno annunci pubblicitari.

Se le tradizionali economie di rete non funzionano con i motori di ricerca, che cosa comportano le economie di rete indirette? Questo concetto implica un circolo virtuoso in qualche modo più complesso. Si pensi a un sistema operativo con tre parti coinvolte: il venditore del sistema operativo, gli sviluppatori di applicazioni per il sistema operativo e i clienti che acquistano sia il sistema operativo che le applicazioni.

Si supponga che due venditori di sistemi operativi siano in concorrenza tra loro. Gli sviluppatori di applicazioni potrebbero ritenerlo vantaggioso per creare applicazioni relative al sistema con il maggior numero di utenti, e gli utenti a loro volta potrebbero reputare vantaggioso tale sistema operativo poiché contenente molteplici applicazioni. Tale situazione potrebbe comportare un circolo virtuoso: più utenti portano più sviluppatori e più sviluppatori portano più utenti. Il risultato è un winner-takes-all market, in cui i migliori sono in grado di catturare una quota di mercato molto ampia, diminuendo di fatto la concorrenza.

Un siffatto modello risulta essere attrattivo, ma non necessariamente corrispondente ai fatti. Dopo tutto, esistono tre sistemi operativi per pc (Linux, Windows e Mac os), e due principali sistemi operativi per dispositivi mobili (ios e Android). Pare esserci spazio per più di un sistema operativo. Sembra che le economie di rete indirette non siano così forti come comunemente si crede. Infatti, gli sviluppatori di applicazioni sono presenti su piattaforme multiple e possono offrire applicazioni per entrambi i principali sistemi operativi per dispositivi mobili.

Il nodo delle barriere all’ingresso
Una variante sul tema appena trattato riguarda le cosiddette “barriere all’ingresso per i dati”. L’idea è che un grande attore già operante nel settore (incumbent) disponga di una maggiore quantità di dati provenienti dai suoi utenti, che gli consente di sviluppare prodotti migliori rispetto a quelli dei potenziali concorrenti, dandogli quindi un vantaggio competitivo imbattibile rispetto agli attori entranti.

Il primo punto – e anche quello più ovvio – è che se esiste una barriera dei dati all’ingresso, questa si applica in tutte le industrie. Dopo tutto, gli attori che già operano nel settore stanno in effetti producendo un bene o un servizio, a differenza degli entranti. Quindi, per definizione gli incumbent devono avere più dati rispetto ai player entranti. Migliaia di nuove imprese nascono ogni anno e il fatto che queste abbiano meno dati rispetto ai loro concorrenti storici non sembra scoraggiarle affatto.

Ma iniziare un nuovo business è un problema di dati o di conoscenza? Ad esempio, se fossi interessato a entrare nel settore della produzione automobilistica e, sfortunatamente, non sapessi assolutamente nulla su come si costruisce un’automobile, questa dovrebbe essere considerata una barriera all’ingresso?

Quando sono entrate nel mercato, le aziende che oggi hanno successo non disponevano degli stessi dati di cui dispongono oggi, ma sono state comunque in grado di acquisire sufficienti competenze iniziali e di raccogliere dati, informazioni e conoscenze tali da ritagliarsi un vantaggio competitivo rispetto ai soggetti già presenti sul mercato.

Basti pensare, ad esempio, al modo in cui Google ha acquisito esperienza nel settore del riconoscimento vocale nel 2006. La prima cosa che ha fatto è stata assumere ricercatori di primo piano in quel settore, che sono coloro che hanno fornito a Google la conoscenza. Questi ricercatori hanno sviluppato GOO G-411, un servizio che utilizzava il riconoscimento vocale per i servizi di elenchi telefonici. L’intuizione chiave che la squadra ebbe fu quella di implementare l’algoritmo di riconoscimento vocale nel cloud piuttosto che nei singoli dispositivi; e questo ha permesso all’algoritmo di imparare – letteralmente – da milioni di richieste verbali. Nel giro di pochi mesi, l’algoritmo è divenuto molto buono, e alla fine dell’anno era uno dei migliori sistemi di riconoscimento vocale disponibili. Alcuni anni dopo, i team di Google Brain erano in grado di applicare reti neurali alle criticità relative al riconoscimento vocale e migliorare maggiormente le prestazioni.

Anche altre aziende, però, stanno implementando miglioramenti simili. Amazon ha sviluppato Echo e si è posta come obiettivo quello di arrivare a riconoscere e rispondere alle richieste vocali più rapidamente di quanto fosse possibile in precedenza. Quando Echo fu inizialmente sviluppato, il tempo medio di risposta per il riconoscimento vocale era intorno ai 2,5-3 secondi. Il team di lavoro ha fissato il suo obiettivo a 2 secondi. Ma non era sufficiente per Jeff Bezos, che ha richiesto un secondo solo di latenza. A oggi non hanno raggiunto l’obiettivo, ma sono in grado di ottenere una latenza fino a 1,5 secondi, meglio delle altre tecnologie disponibili in quel momento.

Le ragioni dei vantaggi competitivi
Se guardiamo alle principali aziende hi-tech di oggi, riscontriamo una forte concorrenza. Come mostra la tabella, sono tutte in competizione tra loro in molti settori diversi. Questa concorrenza è la ragione per cui possiamo essere testimoni di un’innovazione così rapida e prezzi così bassi nelle industrie tecnologiche. Tutte queste aziende investono molto in competenze. In qualsiasi momento, possono avere capacità diverse, ma possono superare le carenze imparando rapidamente. Un tempo Google sapeva poco dei sistemi operativi o del riconoscimento vocale, Facebook sapeva poco sullo streaming di video e ricerca di immagini e Amazon sapeva poco sulla vendita del cloud computing. Ma hanno imparato rapidamente e la conoscenza che hanno accumulato è la ragione fondamentale del vantaggio competitivo nelle industrie online.

© Riproduzione riservata