Altman enumera i tre pericoli più grandi dell’Intelligenza Artificiale: lo Stato canaglia, il disallineamento con i nostri valori e la vita con l’autopilota. I primi due sono quelli di cui si parla spesso, ma il terzo è quello che ritiene più probabile.
- Uno Stato o una persona facoltosa che non ci piace prende il controllo di oggetti di superintelligenza e li utilizza come armi di controllo di massa contro il resto del mondo. La soluzione credo sia mantenere la ricerca attiva e promuovere modelli opensource accessibili da parte di tutti per avere sempre una possibile protezione distribuita.
- Un oggetto di AI inizia ad essere disallineato rispetto ai nostri valori e prendere il controllo della propria esistenza in uno dei film degli anni ‘90. I vasti laboratori degli LLM di oggi hanno sempre un dipartimento che testa le volontà nascoste di questi oggetti, ma questi test sono spesso basati sugli esperimenti specifici immaginati dai ricercatori, non di tutte le possibili varianti. C’è spazio per migliorare.
- Ci affideremo talmente tanto alle risposte del nostro chatGPT di turno che lo considereremo sempre la migliore scelta e decisione possibile (in molti casi a ragione) e svilupperemo una impotenza appresa che ci porterà a non provare nemmeno a elaborare un nostro pensiero concorrente. Quello che spesso già oggi succede con il nostro navigatore.
Questa evoluzione ci potrebbe portare a vivere una vita con l’autopilota.
Altman dice di aver provato questa esperienza provando a far rispondere alle proprie email al nuovo modello GPT5.