La intel·ligència artificial suposarà un perill existencial
OpenAI, empresa originadora de ChatGPT, admet que en deu anys la IA superarà les capacitats humanes en un informe publicat recentment
Segons un informe recent d’OpenAI, en els pròxims deu anys, els sistemes d’intel·ligència artificial (IA) podrien superar el nivell de competència dels experts en la majoria dels camps i fer activitats productives equivalents a les de les grans corporacions actuals.
Aquesta superintel·ligència presenta avantatges potencials i desavantatges, i es preveu que sigui més poderosa que qualsevol altra tecnologia que la humanitat hagi enfrontat fins ara, fet que pot suposar “greus riscs i amenaces existencials per a la humanitat”, segons OpenAI.
L’empresa suggereix que “es requereix cert grau de coordinació entre els principals desenvolupadors per garantir que la creació de la superintel·ligència es realitzi de manera segura i s’integri adequadament a la societat”. Això podria aconseguir-se mitjançant acords internacionals per limitar el creixement de la capacitat de la IA.
Aquest informe sorgeix després que personalitats tecnològiques com Elon Musk (fundador de Tesla i SpaceX), Steve Wozniak (fundador d’Apple) i l’historiador Yuval Noah Harari s’hagin unit a més de 1.000 persones, incloent-hi investigadors de renom en el camp de la intel·ligència artificial, per signar una carta oberta. En aquesta carta, demanen la suspensió de la implementació de les noves intel·ligències artificials durant sis mesos.
La carta, publicada el passat 29 de març, està dirigida als desenvolupadors d’IA que estan immersos en una carrera comercial descontrolada que impedeix gestionar adequadament els “profunds riscos per a la societat i la humanitat” que suposen. Aquesta iniciativa s’uneix a les nombroses declaracions fetes recentment per destacades personalitats de la indústria i intel·lectuals, que alerten sobre el poder destructiu d’aquestes tecnologies i demanen establir límits abans que sigui massa tard.
A l’informe d’OpenAI, s’hi destaca la importància d’establir una autoritat internacional similar a l’Agència Internacional d’Energia Atòmica (AIEA) per supervisar els avenços de la superintel·ligència. Segons OpenAI, “qualsevol desenvolupament d’intel·ligència artificial que superi un cert nivell de capacitat hauria de ser controlat per una autoritat internacional per garantir la seguretat”.
La seguretat és un altre aspecte crític que s’aborda a l’informe. Malgrat que la comunitat d'investigadors està treballant de valent per aconseguir sistemes segurs, la moderació de la superintel·ligència encara no està garantida. Com menciona l’informe, “necessitem la capacitat tècnica per fer que una superintel·ligència sigui segura”.
A més, OpenAI subratlla la importància de regular els sistemes de IA més potents, però també demana permetre el desenvolupament de models de IA menys avançats sense una regulació excessiva. Segons OpenAI, “si els sistemes d’intel·ligència artificial són menys potents i no representen un risc significatiu, no cal imposar les mateixes regulacions i restriccions que s’apliquen als sistemes més avançats”.
Punts clau de l’informe:
- En la pròxima dècada, la IA superarà els experts i es convertirà en tan productiva com les corporacions més grans d’avui.
- La superintel·ligència canvia les regles del joc. Pot portar-nos una prosperitat sense precedents, però hem de travessar els riscos.
- La coordinació i les accions responsables són crucials. Hem d’unir governs, empreses i organitzacions per assegurar un desenvolupament i integració segurs de la superintel·ligència.
- Necessitem una autoritat internacional que inspeccioni els sistemes d’IA, establint estàndards de seguretat i limitant el seu creixement.
- Detenir la superintel·ligència és gairebé impossible. Ens hem de centrar a fer-ho bé en lloc de detenir-la. És una part indestriable de la nostra evolució tecnològica.