Et chez Assurly, comment on gère ça ?
La question s’est posée au sein de la team au sujet de la contre-mesure et nous avons tranché pour… laisser le robot faire son « travail ». Ça peut paraître étrange mais je vais expliquer notre décision :
Déjà si on se fait webscrapper c’est que le marché nous observe et nous prend très au sérieux. C’est un honneur qui nous est fait (merci !).
Ensuite, notre produit nous appartient : nous l’avons conçu haut de gamme (avec des garanties et couvertures rarement vues) et à un tarif extrêmement compétitif. Et comme nous vivons réellement nos valeurs (transparence, prix juste, simplicité, qualité) nous ne voulons donc rien cacher. Le marché demande plus d’éthique et chaque acteur doit travailler en ce sens, que ce soient les banques, les comparateurs, les courtiers, les assureurs.
Enfin, c’est un formidable test grandeur nature d’analyse de performance de notre plate-forme, puisque grâce à ces plusieurs milliers de requêtes qui stressent cette dernière, nous obtenons des indicateurs sur son comportement pour l’améliorer continuellement. Et au passage je rassure nos clients, notre infrastructure est robuste et sécurisée. Vos données sont bien à l’abri dans un environnement sécurisé version bunker ;-).
Nota Bene : Pour être totalement honnête, nous laissons faire dans les limites du raisonnable. Pour le moment c’est wait & see comme on dit dans la tech.
J’aime l’idée de penser qu’il n’y a pas de bonnes ou de mauvaises data (le web scrap est de la data en soi : que regarde le robot, d’où vient-il, qui le lance, quand, l’induit-on en erreur etc..). Toute donnée sert à améliorer notre système et au final l’expérience client. Un peu comme un Amazon qui te rembourse et ne te demande pas de renvoyer le produit.
C’est ce qui nous drive chez Assurly : l’innovation continue au service de nos clients. N’est-ce pas cela l’assurance transparente au prix juste ? Nos clients nous font confiance, nous leur faisons confiance. Alors reprenez le pouvoir et rejoignez-nous !