Tandis que GAFA et BATX se partagent le monde en matière de données personnelles, l’Europe met en place le Règlement Général pour la Protection des Données (RGPD) qui rentrera en vigueur le 25 mai prochain.

Rappelons que les Intelligences Artificielles (I.A.) se nourrissent aujourd’hui de grosses (Big) bases de données (Datas) servant de « comparaison », d’échantillon témoin. Grâce à un apprentissage massif, les algorithmes peuvent ensuite étudier une donnée « nouvelle » et la comparer à leur stock. Ces « Big Datas » sont donc facilement exploitables quand on s’appelle Facebook, qu’on détient déjà sur ses serveurs tout un tas de données personnelles, en plus mises à jour par l’utilisateur lui-même. Évidemment, la mise en place du règlement (lire « interdiction ») européen ne facilite pas la tâche pour inventer de nouveaux algorithmes sur le vieux continent, précarré du RGPD. C’est un peu comme si on privait ces entités mathématiques de leur nourriture. Les algorithmes d’I.A. européens risquent d’avoir le profil d’un anorexique face aux boulimiques chinois et américains, car ils n’auront plus grand-chose à manger.

Cela étant, la quantité de données peut toujours être remplacée par la qualité. La France a par exemple des bases de données médicales très précises. Il faut alors moins de données pour « qualifier » une intelligence artificielle. Un écueil cependant : toutes les start-ups ne peuvent pas profiter de ces bases de données du fait de la sensibilité des informations encodées. Et la France impose à ses PME des règles qui les rendent parfois aussi agiles qu’un diplodocus (bien que je ne sois pas expert en déplacement de Diplodocus…)

Notre regard européen pourrait toutefois se porter sur d’autres types de données, comme les informations croissantes générées par la cybersécurité. Considérant les flux informatiques de tous types passant dans les tuyaux, les attaques de toutes sortes sur l’ensemble des systèmes sans oublier les futures émissions provenant des objets connectés (tout de même déjà plus de 80% des données sur internet), il y a là, il me semble, une vraie carte à jouer. Le monitoring des outils de gestion des pares-feux est par exemple un vrai sujet pour les RSSI (Responsables de Sécurité des Systèmes d’Information). On retrouve aussi ces problématiques dans l’administration de fermes de serveur où nombre de données qualifiées peuvent être exploitées dans le cadre de la génération d’algorithmes d’intelligence artificielle, sans pour autant manipuler de donnée d’ordre privé.

Partout là où les flux de données nécessitent une surveillance que l’homme ne peut suivre, où il se noie sous la donnée, il y a de la place pour de nouvelles idées disruptives (Exemples : le transport, qu’il soit aérien, maritime, ferroviaire ou routier ou les communications. Il n’y a qu’à visiter la war-room d’Orange pour être convaincu de la complexité du suivi du risque cyber, ou se promener à Pointe-Rouge à Marseille pour admirer la plus grosse arrivée de fibre de Méditerranée et la troisième Européenne.) Une surveillance qui pourrait également intéresser les derniers recrutés de la DGSE dont les profils (malheureusement trop facilement publiés) montrent tout l’intérêt qu’a la Piscine aujourd’hui pour le sujet. Et si je peux reprocher une chose au rapport Villani rendu public le 28 mars 2018, c’est que la question de cybersécurité n’a jamais été traitée comme une composante exploitable en tant que telle, mais comme un module accompagnant les différents projets d’I.A. (?).

Bien sûr, il faudrait aussi être en capacité de libérer cette innovation de façon mondiale. Cela passe par l’arrivée sur le marché de plus d’avocats spécialisés sur la négociation de contrats portant sur les données et les intelligences artificielles. On se heurte trop souvent aujourd’hui à des barrières toutes bêtes telles que la langue de négociation de ces contrats et à la méconnaissance des professionnels du droit.

En favorisant (lire « aidant ») les développements économiques sur la cybersécurité, l’Europe pourrait trouver sa place sur le marché tout en contrôlant les réseaux, ce qui lui permettrait pourquoi pas de se poser aussi en régulateur, rôle qui pourrait bien être le sien dans les années à venir et dans lequel elle excelle depuis le siècle des Lumières.

Après des études de biologie et deux années dans les forces spéciales, Stéphan Le Doaré se tourne vers l’informatique. Actuellement gérant de la société DSI Concept à Marseille, il conseille les entreprises dans la structuration de leur système d’information. Son deuxième roman aborde l’Intelligence Artificielle et le Transhumanisme d’un point de vue social et prospectif. Les conférences qu’il anime sur le sujet de l’I.A. replacent ce thème dans les contextes géopolitique, économique et sociétal. Il est également membre du LICA (Laboratoire d’Intelligence Collective et Artificielle)

Laisser un commentaire