La fermeture du tuyau d'incendie de Twitter est un danger pour l'économie des API

Le géant des médias sociaux Twitter a annoncé vendredi sur Gnip, son acquisition d'analyse de données, qu'il mettait fin aux accords avec des tiers pour la revente des données "firehose" de Twitter - le flux complet et non filtré de tweets disponibles sur le service.

Appelez cela l'un des risques professionnels de l'économie des API: plus la dépendance à une seule entité est répandue et multiforme - que ce soit en tant que source de données, couche d'analyse ou infrastructure - plus il est facile de faire arracher le tapis sous vos pieds.

Au lieu d'accords avec des revendeurs tiers tels que Gnip (maintenant détenu par Twitter), Datasift et NTT Data, Twitter prévoit plutôt de vendre l'accès à ses données Firehose directement via son propre ensemble d'API. Cela signifie que quiconque s'appuie sur les méta-analyses fournies par ces revendeurs, telles que les analyses spécifiques à l'industrie de Datasift, les clients devront soit réinventer ces analyses, attendre qu'elles soient réimplémentées par un revendeur, soit s'en passer.

Les motivations de Twitter sont assez claires. La société est déterminée à générer plus de revenus en transformant son flux de données en une ressource sous licence pour l'analyse des sentiments en temps réel - et, ce faisant, devenir un roi de l'économie des API en tant que source indispensable de données du monde réel. Comme Chris Moody, vice-président de Twitter pour la stratégie de données (et ancien chef de Gnip) l'a déclaré dans le blog Bits du New York Times , «À l'avenir, chaque décision commerciale importante aura des données Twitter comme entrée, car pourquoi ? "

Ce plan, qui incarne l'économie des API, place Twitter en premier et tout le monde en second lieu - et pourrait causer des dommages à long terme à Twitter lui-même autant qu'à n'importe lequel de ses partenaires.

Nick Halstead de Datasift a été contrarié par les changements, mais a décidé de faire le gros du travail pour ses clients; Datasift prévoit de mettre en place un connecteur pour les nouvelles API de Twitter afin que les clients Datasift existants continuent d'être servis. "Cela ne corrigera pas de nombreux échecs du traitement GNIP + filtrage", a-t-il écrit dans un blog, "mais cela vous permettra quand même de continuer à utiliser nos API pour recevoir les données."

Ben Kepes de Forbes était beaucoup moins caritatif, qualifiant le plan de Twitter de rien de moins que "un mouvement diabolique" par "une entreprise avec une longue histoire de mouvements qui vont à l'encontre des meilleurs intérêts de son écosystème."

Steven Willmott, du fournisseur de gestion d'API 3Scale, estime qu'il s'agit d'une idée aussi destructrice pour l'innovation que la restriction de l'accès client par Twitter en 2012. "Moins de parties créeront désormais des outils pour réaliser [la valeur globale créée sur le firehose Twitter]," Willmott a écrit. "Il y aura moins d'expérimentation (puisqu'il n'y a pas de modèle commercial pour le gain). Tout cela diminue la valeur pour les clients."

Tous les tiers qui s'appuient sur les données Twitter ne sont pas concernés par cela. IBM Insights for Twitter, par exemple, s'appuie sur le «décahose» de Twitter, un échantillonnage aléatoire d'un tweets sur 10 plutôt que de l'intégralité du firehose. Ce flux particulier reste intact - un signe qu'une plus grande partie de la monétisation future de l'API de Twitter sera fortement hiérarchisée, les niveaux les plus utiles étant également les plus chers, ce qui les rend plus restreints - et donc moins utiles à long terme.

Twitter est en position de force relative, car peu d'autres entreprises de médias sociaux peuvent revendiquer une telle richesse de données en temps réel. Il est également de plus en plus déterminé à capitaliser sur ses API. À mesure que leur valeur globale pour l'entreprise augmente, les chances que Twitter devienne un marchand de données plus volatile dans l'économie des API augmentent également.