
Danske banker deployer AI uden sikkerhedsstandarder
Eksperter advarer om risici, mens Finanstilsynet mangler retningslinjer
Danske banker har implementeret autonome AI-agenter, der opererer i live-handelsmiljøer med adgang til reelle markedsdata, uden at der foreligger etablerede sikkerhedsstandarder for systemerne.
Det fremgår af analyser, der peger på, at Finanstilsynet endnu ikke har udstedt specifikke retningslinjer for deployment af autonome AI-handelssystemer i Danmark. Mens bankerne har sat agenternes i produktion, eksisterer der således ingen regulatorisk ramme, der specificerer, hvordan disse systemer skal sikres og overvåges.
Eksperter identificerer flere kritiske risici ved den nuværende tilgang. Blandt dem er muligheden for, at AI-agenter fejltolker markedssignaler, hvilket kan føre til uhensigtsmæssige handelsbeslutninger. Der er også bekymring for såkaldt regulatory arbitrage — hvor bankerne potentielt kan udnytte lovgivningshuller — samt risikoen for kaskadeeffekter mellem forskellige finansielle institutioner, hvis systemerne fejler samtidigt.
AI-agenternes adgang til live markedsdata betyder, at eventuelle sårbarheder kunne have betydelige økonomiske konsekvenser ikke blot for de enkelte banker, men potentielt for hele det finansielle system.
**Danske Bank fokuserer på sikkerhed**
Danske Bank har dog udviklet en platform specifikt designet til sikker og overholdelsesfuld integration af AI-agenter. Banken har derudover lanceret 12 generative AI-løsninger, som cirka 16.000 ansatte bruger på månedsbasis.
Det er imidlertid uklart, om alle danske banker følger tilsvarende sikkerhedsprotokol, eller om nogle har deployment autonome systemer uden disse foranstaltninger.


