J'ai une remarque/argument supplémentaire pour la solution consistant à stocker nous-même les données.
Je parlais plus tôt d'une API pour servir les données. Ça a été un peu passé sous silence mais ça me paraît extrêmement important.
Les reports c'est beau, ça permet de faire de beaux exports, y'a de très bonnes solutions pro (ou pas) qui permettent de créer des critères d'agrégation, de générer des graphes, des cubes etc. Sur d'énormes volumes de données c'est très intéressant.
Mais il ne me semble pas qu'il faille voir les choses sous cet angle, si je relis la première ligne de la ZEP, on est en train de parler des auteurs. Donc un contexte assez limité. Et franchement, ce qui, à mon avis, va les intéresser c'est d'abord de disposer des données, après, qu'ils se partagent une feuille Excel ou que quelqu'un fasse une app node-webkit ultra sex ou t'as juste à saisir le nom de ton tuto pour avoir des graphes temps-réel, j'aurais tendance à dire peu importe.
L'accent est beaucoup mis sur la représentation des données, ouais OK c'est clair que y'a moyen de faire des trucs super sympas et c'est plus facile d'avancer en imaginant un graphe plutôt qu'un bout de JSON, je le conçois, mais à mon avis c'est pas la bonne façon de voir le truc.
Bref, ça c'était pour enfoncer le clou de "on sert les données par API, basta, si un joli projet voit le jour (ptetre même en "interne") on l'intégrera dans une page.
Du coup, en partant de ce principe là, ça va directement dans le sens de servir ses propres données, pas celles de Google, sinon en effet, on va attaquer la rate limit de l'API Google d'une part, et il va falloir de toute façon faire un pont entre l'API GA et celle de ZdS.
Si on construit notre propre modèle de données, avec l'énorme boulot qui a été fourni par les devs de l'API existante et les briques en place, ça me paraît pas insensé de penser que ça pourrait aller vachement vite. Après tu donnes ça à manger à n'importe quel dev qui connaît une lib de graphes / reports et le problème est réglé.
Et si l'API n'est pas la bonne approche, alors le travail n'est pas perdu, on pourrait générer des reports "à l'ancienne" (si je puis me permettre) à grands coups de reports/requêtes paramétrés qui sortiront soit des images, soit de l'HTML soit du PDF soit tout ça à la fois.
Mais dans les deux cas, je pense qu'il est essentiel d'organiser les données proprement dans un stockage qui nous est propre et qu'on maîtrise, sans a priori sur la techno d'ailleurs, ça peut-être "not-only"(j'insite)SQL (la majeure partie en SQL, le détail des visites dans Redis ou autre, par exemple), ça peut permettre de requêter de façon très fine les données (paramètres de requête API includeDetails
? par ex.).
Voilà excusez-moi de revenir là-dessus mais je pense vraiment que ZdS devrait se contenter de servir les données et effectivement se concentrer sur le format de celles-ci, plutôt que de se dire "le format c'est le même que GA, on fait juste du "cut-through", ça me paraît vraiment être une fausse bonne idée : oui ça ira plus vite mais ça me semble pas pérenne pour deux sous et typiquement le cas où 6 mois plus tard on se dit "ah merde on est bloqué on peut pas corréler c'est con : soit on fait un pont un peu crado, soit on stocke chez nous" et rebelote pour cette discussion.
Voilà, c'est vraiment que mon avis, et ça peut complètement être à côté de la plaque.
PS (SpaceFox ayant posté entre temps) : oui ce sont des métriques intéressantes à prendre en compte aussi.