Les faiblesses de la régulation en matière de numérique ont plusieurs fois été évoquées au cours du séminaire. L’histoire des risques technologiques, étudiée par Jean-Baptiste Fressoz, historien des sciences au CNRS, nous enseigne que ce sont les controverses sociales provoquées par les accidents dus à l’introduction des machines à vapeur et de l’éclairage au gaz qui ont donné naissance aux grands principes de régulation (autorisation administrative préalable, normalisation des dispositifs techniques et compensation des victimes en cas de dommage). Appliquer ces principes au secteur numérique pour prévenir les bugs informatiques et les failles de sécurité serait déjà un grand pas, recommandé par Gérard Berry, professeur au Collège de France. L’absence d’analyse sociale des risques et des responsabilités dans un monde numérique accroît les probabilités d’une prise de contrôle inappropriée par une entreprise ou un État, d’une instrumentalisation et d’une utilisation non souhaitée ou non souhaitable des données amassées par les machines. La réponse a posteriori ne suffit pas. Ainsi, la loi Hadopi est venue réguler la pratique du téléchargement au moment où celle-ci disparaissait au profit du streaming. D’après Daniel Le Métayer, directeur de recherche au centre de recherche Inria Grenoble Rhône-Alpes à Lyon, la transparence doit être pensée dès la conception du service par ceux qui traitent les données personnelles (privacy by design). Pour Laurence Devillers, c’est aussi en amont qu’il faudrait définir l’autonomie et les capacités décisionnelles des robots en assurant la transparence des données collectées et des algorithmes utilisés.