
De ce testarea și certificarea sistemelor AI nu mai pot fi amânate
Paradoxul erei inteligenței artificiale
Trăim într-o epocă obsedată de inteligența artificială. Am construit mașini capabile să proceseze în câteva secunde volume de informații pe care generații întregi nu le-ar putea parcurge într-o viață. De la diagnosticare medicală la strategii financiare, AI a devenit noul oracol – un partener cognitiv omniprezent, șoptindu-ne răspunsuri cu o viteză și o siguranță de sine amețitoare.
Și totuși, un paradox devine tot mai evident: în ciuda acestei viteze de neconceput acum doar câțiva ani, calitatea judecații pare să fie supusă unor riscuri majore. Această fractură expune o confuzie fundamentală pe care am cultivat-o cu aroganța specifică modernității: am confundat inteligența cu discernământul. Am presupus, în mod eronat, că o capacitate superioară de procesare a datelor echivalează cu o capacitate superioară de a raționa. În zilele noastre, în zorii noii ere AI, această confuzie a devenit cel mai mare risc strategic.
Inteligență versus discernământ
Inteligența, în forma sa pură, este capacitatea de a procesa informații: viteză, recunoașterea tiparelor, construcția unor conexiuni logice. Un model lingvistic mare (LLM) este apogeul acestei forme de inteligență: poate rezuma, traduce, codifica și genera text care, la suprafață, pare coerent și informat.
Discernământul, pe de altă parte, este capacitatea de a judeca sensul, relevanța și consecințele informației. Nu este despre ce știi, ci despre cum aplici ceea ce știi într-un context real, complex și, de cele mai multe ori, ambiguu. Discernământul este arta de a decide conștient ce să ignori, când să te oprești, când să pui la îndoială chiar și cele mai elegante concluzii. O facultate care nu se naște din date, ci din experiență, din înțelegerea naturii umane, din conștiința mizei și a responsabilității. Aristotel numea această facultate phronesis, înțelepciune practică. Kant vorbea despre rațiunea practică, care cere angajarea voinței în lume. Discernământul unește cogniția cu experiența, o facultate pe care mașinile, prin însăși natura lor, n-o pot revendica în mod autentic.
Atunci când AI greșește – lecții costisitoare
Cazurile concrete de mai jos ne oferă câteva lecții legate de pericolele delegării necontrolate a unor sarcini către sisteme lipsite de conștiință.
În 2024, un tribunal canadian (Civil Resolution Tribunal din British Columbia) a decis că Air Canada este responsabilă pentru informațiile furnizate de propriul chatbot, care a oferit unui client detalii eronate despre o politică de rambursare în caz de deces în familie. Compania a susținut că chatbotul este o entitate separată. Tribunalul a respins însă acest argument și a stabilit un precedent legal: companiile sunt responsabile pentru informațiile furnizate de sistemele lor AI, indiferent dacă acestea sunt corecte sau nu. Delegarea autorității de comunicare către sisteme AI care halucinează (termen utilizat în literatura de specialitate pentru generarea de informații factuale sau concluzii false) este o rețetă sigură pentru un dezastru operațional și reputațional.
Diverse studii au arătat rate semnificative de erori factuale în răspunsuri juridice. De exemplu, un studiu Stanford University din 2024 a arătat că modelele AI specializate în drept produc erori factuale grave. Avocați din SUA au fost prinși citând cazuri juridice fictive (ex.: cazul Mata v. Avianca, 2023), generate de AI, în dosare reale. Acest caz demonstrează eșecul fundamental al utilizării unui sistem neverificat și necertificat, care nu poate distinge între realitate și ficțiune plauzibilă.
Porcha Woodruff, o doamnă însărcinată din Detroit, a fost arestată pentru jaf armat pe baza unei identificări eronate făcute de un sistem AI de recunoaștere facială. Poliția a tratat output-ul algoritmului ca pe o dovadă, nu ca pe o sugestie care implică verificare umană. Cazul a fost documentat în presă și a generat dezbateri aprinse privind utilizarea AI în aplicarea legii, subliniind consecințele traumatizante în cazul persoanelor nevinovate.
Asemenea eșecuri dezvăluie o problemă de esență: sisteme fără conștiință, fără responsabilitate și fără sisteme clare de management al riscurilor, cărora li s-a delegat puterea de a acționa. Exact în acest spațiu dintre puterea de calcul impresionantă a AI și responsabilitatea corporativă se înscrie nevoia unor standarde internaționale riguroase. Nu pentru a frâna inovația, ci pentru a limita riscurile și erorile.

ISO/IEC 42119 – viitorul testării sistemelor AI
Cel mai recent răspuns al comunității internaționale de standardizare la provocările descrise mai sus ia forma seriei ISO/IEC 42119 – un set inovator de standarde internaționale dedicate testării sistemelor de inteligență artificială. Seria este gândită să devină o piatră de temelie pentru organizațiile care urmăresc dezvoltarea și utilizarea unor sisteme AI sigure, solide, transparente și demne de încredere.
Demersul începe cu publicarea standardului ISO/IEC TS 42119-2:2025 — Prezentare generală a testării sistemelor de AI. Acesta oferă o introducere cuprinzătoare în conceptele, procesele și abordările de testare aplicabile AI, demonstrând modul în care standardele consacrate de testare software ISO/IEC/IEEE 29119 pot fi valorificate în contextul inteligenței artificiale.
Documentul acoperă ciclul de viață al sistemelor de AI și testarea bazată pe riscuri, procesele de testare și documentația adaptate specificului AI, nivelurile și tipurile de testare, inclusiv calitatea datelor și a modelelor, orientări privind identificarea și tratarea riscurilor specifice sistemelor AI, tehnici de proiectare a testelor și metrici de acoperire în domeniul AI. Seria ISO/IEC 42119 este în plină dezvoltare, cu componente noi specializate aflate în lucru:
| Standard | Titlu | Obiectiv principal |
| 42119-2:2025 | Prezentare generală a testării AI | Cadru general, ciclul de viață AI, testare bazată pe riscuri |
| DTS 42119-3 (proiect) | Verificare & Validare | Metode formale, simulări, dovezi că sistemele funcționează conform intenției |
| AWI TS 42119-7 (în curs de elaborare) | Red Teaming | Testare adversarială pentru robustețe, securitate și riscuri de utilizare abuzivă |
| AWI TS 42119-8 (în curs de elaborare) | Evaluare calitate GenAI / LLM | Calitate și siguranță pentru sisteme LLM bazate pe prompturi, integrând red teaming |
Seria ISO/IEC 42119 este concepută pentru a funcționa în complementaritate cu ISO/IEC 42001. În timp ce 42001 stabilește cerințele pentru o guvernanță responsabilă a AI, 42119 oferă fundamentul tehnic pentru testarea și validarea sistemelor, contribuind la asigurarea fiabilității, siguranței și încrederii în utilizarea acestora.
ISO/IEC 42001 — Standardul de referință pentru guvernanța AI
Inteligența artificială a depășit de mult faza experimentală, devenind infrastructură critică pentru companii, administrații publice și operatori de servicii esențiale. Nevoia unui cadru recunoscut internațional pentru guvernanța AI este evidentă. Răspunsul a venit prin ISO/IEC 42001 – primul standard internațional dedicat Sistemelor de Management al Inteligenței Artificiale.
De ce este necesar ISO/IEC 42001?
Adoptarea accelerată a AI în afaceri aduce beneficii operaționale semnificative, dar și riscuri concrete: erori de algoritm, lipsă de transparență, halucinații, probleme de securitate sau neconformitate legală. În paralel, reglementările internaționale – inclusiv Regulamentul UE privind AI (EU AI Act) – cresc presiunea asupra organizațiilor pentru a demonstra control, responsabilitate și trasabilitate.
ISO/IEC 42001 oferă un model structurat pentru identificarea și evaluarea riscurilor asociate sistemelor AI, stabilirea unor politici și controale clare de guvernanță, monitorizarea performanței și a impactului etic, asigurarea conformității cu cerințele legale și de reglementare, integrarea cu alte sisteme de management existente (ISO 9001, ISO 27001 etc.). Standardul urmează logica sistemelor de management consacrate, facilitând integrarea sa în cadrul de management integrat deja existent al organizației, ceea ce-l face nu doar un exercițiu de conformitate, ci un instrument de maturitate organizațională reală.
Noua legislație privind inteligența artificială pune accent pe responsabilitate, evaluarea riscurilor și protecția utilizatorilor. Certificarea ISO/IEC 42001 devine astfel un instrument strategic pentru organizațiile care dezvoltă, implementează sau utilizează soluții AI. Prin certificare, companiile demonstrează că:
- Gestionează AI într-un mod controlat și documentat
- Reduc riscurile reputaționale și juridice
- Oferă partenerilor și clienților un nivel ridicat de încredere și transparență
- Sunt pregătite pentru cerințele de conformitate cu EU AI Act și alte reglementări emergente
În cazul unor sectoare precum aviația, infrastructura critică, sănătatea, serviciile legale sau serviciile financiare, acest cadru poate reprezenta diferența dintre conformitatea formală și leadershipul real în materie de guvernanță a noilor tehnologii.
Repere globale: organizații care deja au ales calea certificării alături de SGS
Adopția ISO/IEC 42001 la nivel global confirmă că acesta nu este un instrument teoretic ci un cadru practic, aplicabil în diverse sectoare. Grupul SGS a jucat un rol central în certificarea unor organizații pioniere la nivel mondial.
Un moment definitoriu a fost certificarea Changi Airport Group, operatorul Singapore Changi Airport – prima certificare acreditată ISO/IEC 42001 la nivel global. Într-un ecosistem aeroportuar în care AI susține procese critice, de la securitate la managementul fluxurilor de pasageri, implementarea unui sistem formal de management AI transmite un mesaj puternic despre control, responsabilitate și siguranță operațională.
În Europa, AI Clearing și Xayn s-au numărat printre pionierii certificării, demonstrând aplicabilitatea standardului atât în zona de infrastructură și construcții asistate de AI, cât și în dezvoltarea de soluții software. În Regatul Unit, Brookcourt Solutions a consolidat poziționarea standardului în sectorul securității cibernetice.
În Asia, procesul de adopție a fost la fel de dinamic: OrionStar Robotics a obținut prima certificare ISO/IEC 42001 din China; Godot Inc. din Japonia a marcat un moment similar pentru piața locală; DYXnet a demonstrat integrarea guvernanței AI în zona telecomunicațiilor; KPMG India a validat aplicabilitatea standardului în sfera serviciilor profesionale.
Aceste certificări, acordate în sectoare variate – aviație, robotică, securitate cibernetică, consultanță – confirmă că ISO/IEC 42001 este un instrument practic de guvernanță, aplicabil oricărei organizații care folosește AI în mod responsabil. Aceste repere dau naștere unei noi paradigme: în era AI, leadership-ul nu mai este definit doar de capacitatea de a inova, ci și de capacitatea de a gestiona responsabil și transparent impactul tehnologiei și riscurile generate de utilizarea acesteia.
Cum își susține SGS partenerii pe acest drum
SGS, lider mondial în testare, inspecție și certificare, oferă un portofoliu integrat de servicii pentru a sprijini organizațiile în navigarea cadrului dinamic al standardelor, reglementărilor și bunelor practici din domeniul inteligenței artificiale.
Compania oferă certificare acreditată ISO/IEC 42001 pentru sistemele de management al AI, precum și alte scheme de certificare recunoscute internațional. Scopul nu este conformitatea de fațadă, ci construirea unui sistem de guvernanță real și sustenabil, auditabil și credibil în fața tuturor părților interesate. Testarea sistemelor AI acoperă evaluarea calității datelor, echității, clarității și testarea adversarială. SGS realizează, de asemenea, testări tehnice de produs pentru LLM-uri, chatbot-uri și sisteme de tip GenAI, inclusiv activități de red teaming și evaluări de securitate – tocmai categoriile de riscuri ilustrate în cazurile reale prezentate anterior.
Expertiza SGS acoperă managementul riscurilor AI și pregătirea pentru respectarea standardelor și reglementărilor internaționale. SGS Academy oferă cursuri dedicate standardelor AI, EU AI Act, managementului riscurilor și temelor tehnice relevante – pentru ca organizațiile să nu fie doar conforme, ci și competente. Pentru organizațiile care doresc să-și evalueze rapid maturitatea guvernanței lor în domeniul AI, SGS AI Trust Check oferă un instrument rapid de autoevaluare care sprijină identificarea lacunelor și prioritizarea acțiunilor necesare pentru conformitate și consolidarea încrederii. Alegerea unui partener pentru asigurarea AI nu trebuie să fie o decizie de moment. Este o decizie strategică, cu implicații pe termen lung. SGS aduce în ecuație:
- peste 500 de experți în încredere digitală, 10 laboratoare cibernetice acreditate și prezență în peste 100 de țări
- primul furnizor de certificare acreditată pentru sisteme de management al AI și servicii complete de conformitate cu EU AI Act
- servicii integrate de certificare, testare, instruire, consultanță și soluții de încredere digitală pentru fiecare etapă a parcursului AI
- experiență relevantă în servicii financiare, sănătate, mobilitate, industrie prelucrătoare, aviație și multe altele
- excelență operațională și rigoarea specifică companiilor elvețiene, în slujba credibilității organizației dumneavoastră
Diferența dintre o organizație care doar folosește AI și una în care sistemul AI lucrează în siguranță, responsabil și demn de încredere, este măsurabilă, auditabilă și certificabilă. Contactați echipa SGS pentru a afla cum vă putem sprijini în valorificarea viitoare a seriei ISO/IEC 42119 și în implementarea imediată a ISO/IEC 42001.
Despre SGS
SGS este lider mondial în domeniul Testării, Inspecției și Certificării. Operăm o rețea extinsă de peste 2.500 de laboratoare și unități operaționale în 115 țări, susținută de o echipă de peste 100.000 de profesioniști dedicați. Cu o experiență de peste 145 de ani în excelență operațională, îmbinăm rigoarea și precizia specifice companiilor elvețiene pentru a sprijini organizațiile în atingerea celor mai înalte niveluri de calitate, conformitate și sustenabilitate.
Promisiunea brandului – when you need to be sure – ne reflectă angajamentul ferm față de credibilitate, integritate și fiabilitate, oferind companiilor siguranța de care au nevoie pentru a performa și a se dezvolta cu încredere. Furnizăm servicii specializate sub marca SGS, precum și printr-un portofoliu de branduri de încredere precum Applied Technical Services, Brightsight, Bluesign și Nutrasource.
SGS este cotată la bursa SIX Swiss Exchange, sub simbolul SGSN (ISIN CH1256740924, Reuters SGSN.S, Bloomberg SGSN SW).

