OpenAI, ChatGPT, Bard, Machine Learning, Prédictions : est-ce que l’accélération de l’intelligence artificielle sera cadrée par les législateurs ?
Cette question mériterait un débat. Bien sûr, les règlementations commencent à émerger sur le concept d’intelligence artificielle, mais la durée de rédaction d’une loi, et toutes les phases législatives qui s’en suivent, vont accoucher en plusieurs années d’un texte qui sera probablement dépassé avant même son entrée en vigueur, dépassé par l’accélération des possibilités offertes par l’IA.
Dès lors, faut-il en avoir peur ? Ou faut-il voir l’IA comme le nouvel Eldorado ?
Un peu de tout cela… L’inquiétude face à ces évolutions peut naître tant de l’outil lui-même (quelles sont ses limites, ses défauts, et comment est-ce que le cerveau humain pourrait les détecter) que des conséquences de l’usage de tels outils (informatisation de certains jobs, pertes de repères, disparition progressive de certains atours humains comme la collaboration, la créativité et l’inventivité…).
Si le futur n’est pas encore écrit, l’instant présent doit être une source constante d’analyse en regard de ce qui est en train de se jouer.
En se focalisant sur les utilités de l’IA dans les fonctions de risks & compliance, aujourd’hui, de plus en plus de systèmes sont développés sur des protocoles de type IA et machine learning.
Cela conduit à ce que certains systèmes de paramétrage d’alertes (opérations à risques de blanchiment ou d’abus de marché) sont semi-autonomes en termes d’évolution et d’adaptation. Une telle approche comporte toutefois certains risques dont la teneur doit être évaluée :
Le désalignement progressif avec le but originel :
- Mettre des millions de transactions et d’informations sur les positions afin d’illustrer un propos peut créer des biais qui au fil du temps s’amplifient ; si un système détecte des « patterns » plus relevants que d’autres, il va mettre l’accent sur ceux-ci et affiner ses observations jusqu’à rendre ce « pattern » dominant
- La « correction » par l’humain n’est simple que sur les résultats montrés par l’IA, elle est par contre quasi-impossible sur les résultats non-illustrés par l’IA ; si cet aspect n’est pas propre à l’IA, mais à tout système d’alertes, le caractère « rassurant » de l’IA (il a vu des millions de transactions) fait qu’on est moins incité à observer la face cachée car on ne sait pas que chercher…
La multiplication de critères rend nécessaire une observation sous plusieurs prismes :
- L’arrivée de nombreux paramètres (sanctions économiques, nouveaux produits financiers, multiples couches d’entités juridiques, etc) dans les systèmes d’alertes nécessite une reconfiguration pour empêcher les résultats biaisés… L’inventivité humaine est essentielle dans ce cadre
- La machine ne va pas agir au « feeling » alors que ce sont précisément ses impressions qui permettent parfois au compliance officer d’être sensibilisé à une configuration transactionnelle plutôt qu’à une autre (perdu en forêt, un humain se retrouve confronté à un choix entre deux chemins, un des deux l’inspire et l’autre pas ; pour l’IA, sans autre paramètre, chaque chemin équivaut à 50%)
Au niveau de l’Union Européenne, les prochains changements règlementaires arrivent afin de couvrir des aspects en lien avec la Fintech, les crypto-actifs, mais aussi la résilience. Nous aurons l’occasion de revenir prochainement sur ce sujet dans un article.
En Suisse, les démarches se lisent dans les règlementations au niveau stratégique (à l’image de la stratégie numérique de la Suisse ) afin de donner des grands principes, ainsi que dans des actions plutôt ciblées (par ex. la règlementation sur les DLT ).
A ce stade, l’innovation technologique et le développement des normes législatives couvrant ce domaine ne sont pas encore pleinement harmonisées. C’est peut-être une erreur en raison des aspects humains sous-jacents qui risquent d’amener un jour une réaction disproportionnée…
Et la réaction disproportionnée est souvent dictée par des considérants émotionnels…
Comme les 3 pôles d’activités de Mase Partners se trouvent être tous les 3 sources d’éléments de réflexion pour les développements récents en matière d’IA, nous ne manquerons pas de suivre cela avec attention. En effet, après le cadre règlementaire, l’IA offre une perspective d’analyse qui peut impacter les systèmes et processus de travail et les inquiétudes autour de l’humain.
Comment se préparer aux premiers audits LSFIN/LEFIN ?
L’année dernière, de nombreux gérants indépendants ont effectué les démarches afin de s’enregistrer auprès de la FINMA, tel que requis par la LEFIN. Avec bientôt
La santé mentale au travail
La santé mentale au travail : comprendre son importance et promouvoir le bien-être au travail par un environnement sain
Vers une réglementation de l’intelligence artificielle déjà obsolète ?
La réglementation commence à émerger sur le concept d’intelligence artificielle, mais sera sûrement obsolète lors de sa sortie.
La Gouvernance d’Entreprise : adopter les bonnes pratiques
Mase Partners a récemment mis à disposition sur son site un article visant à refléter les principes en matière de droit de la société anonyme dans leurs évolutions au 1er janvier 2023.
Il est juste de dire que les sociétés anonymes, en tant que personnes morales, doivent adapter leur modus operandi aux standards les plus élevés en matière de pratique des affaires et de gouvernance.
Droit de la société anonyme en Suisse : que s’est-il passé au 1er janvier 2023
Oui, il y a eu un changement dans le droit de la SA dont les premiers aspects sont déjà en vigueur (notamment la représentativité au sein des organes de sociétés cotées, ainsi que la transparence accrue dans le secteur des matières premières). Cette première partie des adaptations du droit des sociétés anonymes est teintée d’une dimension ESG (Environnement, Social et Gouvernance).
Notre partenaire Q7 Leader
Une solution de gestion des talents conçue pour favoriser l’épanouissement de vos équipes.