No hi pot haver intel·ligència artificial sense gran tecnologia.
Al mateix temps, comencen a aparèixer problemes preocupants: per exemple, la tecnologia no funciona de la manera com es prescriu i pot produir taxes d’error elevades o resultats discriminatoris. L’opacitat de l’IA significa que potser no entenem i controlem plenament la tecnologia.
El motiu d’això és un atribut bàsic de la IA que parla de volums: depèn fonamentalment dels recursos propietat i controlat només per un bon grapat d’empreses de tecnologia.
Tres dimensions clau
El domini de les empreses de grans tecnologies en IA es reflecteix en tres dimensions clau:
1. Advantage de dades: les empreses amb accés a les dades de comportament més àmplies i més profundes estan liderant la manera de desenvolupar productes IA de qualitat dels consumidors. Això es reflecteix en les empreses de tecnologia que amplien aquest avantatge de dades mitjançant adquisicions i fusions. Les empreses tecnològiques han acumulat una enorme potència econòmica, cosa que els ha permès integrar -se com a infraestructures bàsiques en salut, béns de consum, educació, crèdit i moltes altres indústries.
2.
3, Avantatges geopolítics: Actualment, els sistemes d’AI no només són productes comercials, sinó també actius econòmics i de seguretat estratègics del país, les empreses de la IA s’han convertit en una palanca clau en aquesta lluita geopolítica.
Per què "gran tecnologia"?
Fent fàcil als reguladors investigar la vigilància de dades intrusives de Big Tech, la interferència amb l’autonomia dels usuaris, el monopoli i la discriminació.
Big Tech té una sèrie d'efectes en l'ecosistema més ampli, inspirador i fins i tot obligant a altres empreses a unir-se.
La indústria tecnològica en general i el govern en general depenen cada cop més de les grans empreses de tecnologia. L’estratègia comercial bàsica d’aquestes empreses és convertir -se en la infraestructura, convertint -se en un vincle indispensable en moltes parts de l’ecosistema tecnològic.
Enfocament estratègic
En aquest context, les prioritats estratègiques següents són especialment importants:
(1) Inversió de responsabilitat: quan es produeixi danys, s'hauria de permetre a les empreses demostrar que no causen danys, en lloc que el públic i els reguladors intervinguin per investigar, identificar i trobar solucions després que s'hagi produït el dany.
2) Desglossar les sitges entre les àrees de política, abordar millor l’impacte del progrés en una agenda política en altres agendes polítiques i evitar les empreses que aprofiten les incoherències entre les polítiques.
3. Determineu si els enfocaments polítics poden regular efectivament el comportament de la indústria i ajustar les estratègies de manera puntual per evitar que les empreses tecnològiques evitin la regulació governamental.
5. Poseu-vos més enllà d’un enfocament estret en la legislació i la política i adopteu una teoria del canvi basada en àmplia.
Finestra d’acció: el paisatge regulador de l’IA
Centrant-se en les necessitats clau de la política d’AI, l’informe elabora les futures estratègies reguladores de l’IA en termes de models d’AI a gran escala, comportament anti-competitiu, responsabilitat algorítmica, minimització de dades, tecnologia i capital financer, control biomètric i comerç digital internacional. Els punts clau inclouen:
1. Reducció de l’avantatge de dades de les empreses tecnològiques.
La política de dades és la política de la IA i fer mesures per frenar l’avantatge de dades d’una empresa és clau per limitar la concentració de poder en les empreses de tecnologia. Per tant, l'informe recomana:
Establir regles clares que limiten la recollida o generació de dades de consum de l'empresa.
(2) En el procés de formulació de polítiques de IA, la llei de privadesa i la llei de competència estaran vinculades efectivament per evitar que les empreses aprofitin la incompatibilitat d’aquestes regles per buscar els seus propis interessos.
Optimitzar les directrius reguladores i les mesures d’execució per examinar la integració dels avantatges de les dades de les empreses perquè l’aplicació de la llei pugui intervenir per aturar el mal ús de les dades abans que es produeixi danys.
2. Mètodes de reforma de la competència per reduir la concentració tecnològica en la indústria tecnològica.
Frenar l’ús de dades per part de les grans empreses de tecnologia per adquirir altres empreses i investigar i castigar les empreses quan es dediquen a un comportament anti-competitiu.
Avança el procés de casos antimonopoli per proporcionar als executors antimonopoli eines més fortes per desafiar pràctiques abusives específiques per a la indústria tecnològica.
(3) Anàlisi competitiva en el camp de la política tecnològica integrada. Identifiqueu els escenaris en què les empreses de plataformes d’Internet poden utilitzar mesures de privadesa per consolidar els seus avantatges i analitzar com la concentració excessiva del mercat del núvol té un efecte afectat sobre la ciberseguretat.
3, Eviteu l'expansió desordenada del control biomètric en camps nous com els cotxes intel·ligents.
La pràctica ha demostrat que les lleis de protecció de dades no estan en marxa per evitar el dany dels sistemes biomètrics. En aquest entorn, la prohibició de les empreses que recopilen i utilitza dades en determinades àrees hauria de ser clau per a les futures intervencions polítiques.
4. Eviteu que els acords comercials digitals debilitin la supervisió nacional de la responsabilitat algorítmica i la política de competència.
Els acords comercials inclouen les regles internacionals vinculants que limiten l’abast dels governs per regular les empreses comercials. A causa del secret de les negociacions i de la seva relativa immunitat a la pressió política pública, han esdevingut el focus de la indústria de la tecnologia intensa per a un tractament preferent.
Tanmateix, les regles de prohibició de la no discriminació en els acords comercials no han de ser considerades com una eina per protegir les grans empreses de tecnologia de la regulació de la competència exterior.
A més, la confidencialitat del codi font i els algoritmes en els acords comercials no s’ha d’utilitzar com a eina per debilitar la transparència dels algoritmes i les autoritats reguladores haurien de realitzar un control més proactiu i continu dels sistemes d’AI.