Am văzut acest tipar în sistemele de conformitate cu mult înainte de AI. Echipa cu un control mai strict arată adesea mai rău pe hârtie.
Acesta este ceea ce face @Mira - Trust Layer of AI interesant pentru mine. Dacă aplicațiile pot alege setări de verificare mai slabe sau mai stricte, echipele care aleg calea mai strictă pot ajunge să arate mai încet, mai costisitor și mai puțin eficient decât echipele care folosesc setări mai blânde. Configurarea mai slabă poate produce tablouri de bord mai clare, aprobări mai rapide și mai puține acțiuni blocate, chiar și atunci când poartă un risc ascuns mai mare.
Motivul este integrat în fluxul de lucru. Verificarea mai strictă schimbă ce este permis sistemului să treacă. Un prag mai înalt, un domeniu mai îngust sau o regulă de consens mai dură creează mai multă fricțiune. Mai multe cereri eșuează. Mai multe rezultate sunt escalate. Mai multe acțiuni sunt întârziate. O setare mai relaxată face opusul. Permite mai multe lucruri să treacă, astfel că fluxul de lucru pare mai fluid și produsul arată mai bine. Dacă ambele echipe pot încă să facă referire la un certificat Mira, persoanele din afară ar putea interpreta viteza ca fiind competență în loc să vadă că o echipă pur și simplu funcționează cu un prag mai blând.
Aici se transformă stimulentul în ceva rău. Echipele atente încep să pară operațional slabe, în timp ce echipele relaxate par practice și scalabile. În timp, piața poate pedepsi rigorile fără a admite vreodată că face acest lucru.
Dacă $MIRA este menit să susțină o infrastructură reală de încredere, @mira nu poate lăsa ca „verificat” să devină o insignă care face politicile blânde să pară eficiente, sau protocolul va ajunge să recompenseze echipele pentru că arată repede înainte de a le recompensa pentru că sunt sigure. #Mira
