Management

Límits i riscos de la IA al mon de l’empresa

Hildebrand Salvat

Director Tècnic i Soci del Gabinet Ceres

Hem cregut interessant treballar aquest article amb les pròpies eines d'intel·ligència artificial, en un procés iteratiu de preguntes, reflexions, contrast. En aquest procés la IA ha tingut un paper interessant, primer davant del paper en blanc, en l'estructuració, en la reducció de l'esforç de recerca d'informació, etc. Però per altra banda la feina de la IA ha estat constantment supervisada, qüestionada i corregida... per les persones que hi havia darrera.

El 1er grup de limitacions va lligat a les dades sobre les que actua la IA. En la gestió empresarial, sovint s'ha de prendre decisions amb informació parcial i incomplerta i això pot complicar l'aplicació de la IA, més si es fa de forma autònoma. Davant dades incompletes, la IA produirà recomanacions poc fiables. L'existència de dades esbiaixades, fet amplament tractat en la literatura. la IA només pot amplificar els biaixos presents en les dades amb què s'entrena. Això clarament pot tenir conseqüències en tots els àmbits com el reclutament de persones.

En moltes ocasions, la no existència de dades prèvies, per exemple en contextos de disrupció, en sectors emergents on no existeix un històric de dades que pugui ser utilitzat. per a la IA. Una de les limitacions més rellevants quan parlem de IA és que tots aquests sistemes només tenen accés a la informació digitalitzada, sense accés a la informació no digitalitzada. No poden accedir a converses que es produeixen al passadís de l'empresa o a qualsevol de les dinàmiques humanes que es donen fora del món digital.

El 2on grup de limitacions fa referència a la complexitat dels problemes i les capacitats humana i de la IA. La IA té una capacitat limitada per a la disrupció, la creació o la innovació i especialment que no es basin en dades ja existents. I és clar, les decisions estratègiques sovint requereixen aquest tipus d'innovació. I com abans ja s'ha dit citat, la IA presenta una resposta lenta a situacions imprevistes o noves on les dades existents no son útils en el nou context.

La IA té una manca de comprensió dels matisos humans. Tot sovint no capta, no sap identificar els factors qualitatius o els petits factors que influeixen en les decisions, com les dinàmiques personals dins d'una empresa o petits aspectes que determinen el comportament dels consumidors. Això resulta en decisions desconnectades de la realitat humana. Una IA podrà suggerir acomiadar un treballador basant-se en dades de rendiment, sense entendre el seu rol cohesió de l'equip.

Més enllà de la manca de comprensió, i hauria la manca de incorporació dels factors emocionals en els models de presa de decisions. Una IA que recomana acomiadaments massius basats en la rendibilitat pot no considerar l'impacte que això tindrà sobre l'equip, l'empresa, o els consumidors. I per últim, per reblar el clau en aquest factor, cal recordar que la IA, de base, no té ètica.

Aquest últim factor, només ha sortit a la llum amb el treball conjunt humà-màquina: la capacitat de la IA per abordar problemes complexos. La IA és extremadament poderosa per resoldre problemes estructurats, que impliquen grans volums de dades i patrons ben definits, supera els humans en velocitat, precisió o identificació de patrons. Però quan la complexitat és qualitativa, la informació no està estructurada, es basa en factors humans o ambigüitats, relacions molt més indirectes de causalitat, la IA mostra les seves limitacions. Els problemes mal definits o amb objectius contradictoris són difícils de gestionar per a la IA. En entorns molt interconnectats i complexos, la IA pot perdre eficàcia si no es poden quantificar les interrelacions entre els factors implicats. Els humans poden redefinir els problemes, adaptar-se a la seva ambigüitat o intuir relacions que la IA no pot percebre.

Un 3er gran grup de limitacions té a veure amb l'autonomia i la supervisió. Els qui treballen amb IAs saben que s'equivoquen contínuament, es deixen coses, interpreten malament la informació, classifiquen amb els seus criteris, que poden ser variables al llarg d'un mateix xat, actuen arbitràriament, inventen dades i fonts. I això pot passar amb tasques molt complexes, però també amb tasques molt senzilles sota un criteri humà.

Així doncs, confiar excessivament en la IA pot portar a una presa de decisions autònoma i derivar en major risc d'errors greus. Quan la IA s'equivoca, es deixa coses i l'humà diu que tal cosa està malament la IA accepta, demana perdo, no discuteix, ni argumenta la seva posició. Així doncs, L'acceptació automàtica de correccions és una altra gran limitació, en comparació amb els diàlegs humans, on la discrepància pot ajudar a refinar idees i prendre millors decisions.

La simplicitat de la IA per acceptar correccions podria ser un avantatge en contextos on és important una resposta ràpida Vs. la correcció immediata de l'error. Una reacció ràpida davant d'un error és preferible a un procés de discussió o argumentació que pugui endarrerir la resolució del problema. Argumentar o discutir els errors podria desviar el focus o afegir complexitat innecessària.

Segons la pròpia IA, permetre que la IA argumenti davant d'una correcció requeriria algorismes molt més sofisticats que integrin capacitats cognitives més properes a la reflexió humana. Implementar-ho seria complex i podria generar problemes de confiabilitat i consistència.

L'argumentació podria sobrecarregar els usuaris amb informació innecessària, fet que seria problemàtic en entorns on la simplicitat i la claredat són essencials, consumint temps i generant confusió. A més, podria generar tensions o frustració entre els usuaris humans en qüestionar contínuament les decisions humanes, generant desconfiança o fent que el procés de presa de decisions menys eficient.

Les principals estratègies per reduir les limitacions radiquen en el paper dels humans en els processos:

  • Supervisió humana constant: Contrastar qualsevol resposta, posar-la en dubte, estructurar i simplificar els problemes.
  • En lloc de deixar que la IA treballi de forma autònoma, establir equips híbrids on la IA proporcioni suport en l'anàlisi de dades, però amb un paper clau dels humans.
  • Equip humà format: Qui gestiona la IA ha d'estar format: funcionament, limitacions i com interactuar,... I una capacitat de comprensió del fonament dades i estadística que hi ha darrere.
  • Assegurar la qualitat i representativitat de les dades, el màxim complerta, actualitzada i lliure de biaixos.
  • Testar: és bàsic realitzar simulacions en entorns controlats per avaluar resultats, detectar errors i ajustar abans d'aplicar a gran escala.
  • Incorporar l'ètica i la transparència en el disseny de l'IA: els sistemes d'IA haurien de ser dissenyats amb principis ètics per minimitzar el risc de discriminació i de presa de decisions contraries a l'ètica.