Startup

Cosa aspettarsi dall’IA nel 2023 • TechCrunch

Cosa aspettarsi dall’IA nel 2023 • TechCrunch
Written by admin
Cosa aspettarsi dall’IA nel 2023 • TechCrunch

Come scrisse una volta un autore piuttosto di successo commerciale, « la notte è buia e piena di terrori, il giorno luminoso, bello e pieno di speranza ». Sono immagini adatte per l’intelligenza artificiale, che come tutta la tecnologia ha i suoi lati positivi e negativi.

Modelli che generano arte come Diffusione stabilead esempio, hanno portato a incredibili effusioni di creatività, potere app e persino modelli di business completamente nuovi. D’altra parte, la sua natura open source consente ai malintenzionati di usarlo per creare deepfake su larga scala – per tutto il tempo gli artisti protestano dicendo che trae profitto dal loro lavoro.

Cosa c’è in programma per l’IA nel 2023? La regolamentazione frenerà il peggio di ciò che l’IA porta o le porte sono aperte? Emergeranno nuove forme di intelligenza artificiale potenti e trasformative, a la ChatGPTsconvolgere industrie un tempo ritenute al sicuro dall’automazione?

Aspettatevi più app AI (problematiche) che generano arte

Con il successo di Lensa, l’app per selfie basata sull’intelligenza artificiale di Prisma Labs che è diventata virale, puoi aspettarti molte app anch’io in questo senso. E aspettati che anche loro possano essere ingannati creazione di immagini NSFWe a sessualizzare e alterare in modo sproporzionato l’aspetto delle donne.

Maximilian Gahntz, ricercatore politico senior presso la Mozilla Foundation, ha affermato di aspettarsi che l’integrazione dell’IA generativa nella tecnologia di consumo amplificherà gli effetti di tali sistemi, sia positivi che negativi.

Stable Diffusion, ad esempio, ha ricevuto miliardi di immagini da Internet finché non ha « imparato » ad associare determinate parole e concetti a determinate immagini. I modelli di generazione di testo sono stati abitualmente facilmente indotti a sposare opinioni offensive o produrre contenuti fuorvianti.

Mike Cook, membro del gruppo di ricerca aperto Knives and Paintbrushes, concorda con Gahntz sul fatto che l’IA generativa continuerà a dimostrarsi una forza importante e problematica per il cambiamento. Ma pensa che il 2023 debba essere l’anno in cui l’IA generativa « finalmente mette i suoi soldi dove è la sua bocca ».

Prompt di TechCrunch, modello di Stability AI, generato nello strumento gratuito Dream Studio.

“Non basta motivare una comunità di specialisti [to create new tech] – affinché la tecnologia diventi una parte a lungo termine delle nostre vite, deve far guadagnare molti soldi a qualcuno o avere un impatto significativo sulla vita quotidiana del pubblico in generale « , ha affermato Cook. « Quindi prevedo che assisteremo a una seria spinta per fare in modo che l’IA generativa raggiunga effettivamente una di queste due cose, con alterne fortune ».

Gli artisti guidano lo sforzo per rinunciare ai set di dati

DeviantArt rilasciato un generatore di arte AI basato su Stable Diffusion e messo a punto sulle opere d’arte della comunità DeviantArt. Il generatore di opere d’arte è stato accolto con forte disapprovazione dagli abitanti di lunga data di DeviantArt, che hanno criticato la mancanza di trasparenza della piattaforma nell’usare la grafica caricata per addestrare il sistema.

I creatori dei sistemi più popolari, OpenAI e Stability AI, affermano di aver adottato misure per limitare la quantità di contenuti dannosi prodotti dai loro sistemi. Ma a giudicare da molte delle generazioni sui social media, è chiaro che c’è del lavoro da fare.

« I set di dati richiedono una cura attiva per affrontare questi problemi e dovrebbero essere sottoposti a un esame approfondito, anche da parte delle comunità che tendono a ottenere la parte più corta del bastone », ha affermato Gahntz, confrontando il processo con le controversie in corso sulla moderazione dei contenuti nei social media.

Stability AI, che finanzia in gran parte lo sviluppo di Stable Diffusion, ha recentemente ceduto alle pressioni dell’opinione pubblica, segnalando che avrebbe consentito agli artisti di rinunciare al set di dati utilizzato per addestrare il modello Stable Diffusion di prossima generazione. Attraverso il sito Web HaveIBeenTrained.com, i titolari dei diritti potranno richiedere l’opt-out prima dell’inizio della formazione tra poche settimane.

OpenAI non offre tale meccanismo di rinuncia, preferendo invece collaborare con organizzazioni come Shutterstock per concedere in licenza parti delle loro gallerie di immagini. Ma dato il legale e la pura pubblicità ostacola i venti contrari che deve affrontare insieme a Stability AI, è probabilmente solo una questione di tempo prima che segua l’esempio.

I tribunali potrebbero alla fine forzargli la mano. Negli Stati Uniti sono in corso Microsoft, GitHub e OpenAI citato in giudizio in un’azione legale collettiva che li accusa di violare la legge sul copyright consentendo a Copilot, il servizio di GitHub che suggerisce in modo intelligente righe di codice, di rigurgitare sezioni di codice concesso in licenza senza fornire credito.

Forse anticipando la sfida legale, GitHub ha recentemente aggiunto impostazioni per impedire la visualizzazione del codice pubblico nei suggerimenti di Copilot e prevede di introdurre una funzionalità che farà riferimento alla fonte dei suggerimenti di codice. Ma sono misure imperfette. Almeno dentro un’istanzal’impostazione del filtro ha causato l’emissione da parte di Copilot di grandi porzioni di codice protetto da copyright, inclusi tutti i testi di attribuzione e licenza.

Aspettatevi di vedere aumentare le critiche nel prossimo anno, in particolare mentre il Regno Unito riflette su regole che eliminerebbero il requisito secondo cui i sistemi addestrati attraverso dati pubblici devono essere utilizzati rigorosamente a scopo non commerciale.

Gli sforzi open source e decentralizzati continueranno a crescere

Il 2022 ha visto una manciata di aziende di intelligenza artificiale dominare il palcoscenico, principalmente OpenAI e Stability AI. Ma il pendolo potrebbe tornare verso l’open source nel 2023, poiché la capacità di costruire nuovi sistemi va oltre i « laboratori di intelligenza artificiale ricchi di risorse e potenti », come ha affermato Gahntz.

Un approccio comunitario può portare a un maggiore controllo dei sistemi mentre vengono costruiti e implementati, ha affermato: « Se i modelli sono aperti e se i set di dati sono aperti, ciò consentirà molto di più della ricerca critica che ha indicato molti dei difetti e dei danni legati all’IA generativa e che è stata spesso troppo difficile da condurre ».

Apripiega

Crediti immagine: Risultati di OpenFold, un sistema di intelligenza artificiale open source che prevede le forme delle proteine, confrontato con AlphaFold2 di DeepMind.

Esempi di tali sforzi incentrati sulla comunità includono modelli linguistici di grandi dimensioni di EleutherAI e BigScience, uno sforzo sostenuto dalla startup di intelligenza artificiale Hugging Face. Stability AI sta finanziando una serie di comunità stesse, come quella incentrata sulla generazione musicale Harmonai e OpenBioMLuna raccolta sciolta di esperimenti biotecnologici.

Sono ancora necessari denaro ed esperienza per addestrare ed eseguire sofisticati modelli di intelligenza artificiale, ma il calcolo decentralizzato potrebbe sfidare i data center tradizionali man mano che gli sforzi open source maturano.

BigScience ha compiuto un passo verso l’abilitazione dello sviluppo decentralizzato con il recente rilascio del progetto open source Petals. Petals consente alle persone di contribuire con la propria potenza di calcolo, in modo simile a Folding@home, per eseguire grandi modelli di linguaggio AI che normalmente richiederebbero una GPU o un server di fascia alta.

“I moderni modelli generativi sono computazionalmente costosi da addestrare ed eseguire. Alcune stime approssimative stimano la spesa giornaliera di ChatGPT a circa $ 3 milioni « , ha detto via e-mail Chandra Bhagavatula, ricercatrice senior presso l’Allen Institute for AI. « Per renderlo commercialmente fattibile e accessibile più ampiamente, sarà importante affrontare questo problema ».

Chandra sottolinea, tuttavia, che i grandi laboratori continueranno ad avere vantaggi competitivi fintanto che i metodi e i dati rimarranno proprietari. In un esempio recente, OpenAI rilasciato Punto-E, un modello in grado di generare oggetti 3D dato un prompt di testo. Ma mentre OpenAI ha reso open source il modello, non ha rivelato le fonti dei dati di addestramento di Point-E né ha rilasciato tali dati.

OpenAI Point-E

Point-E genera nuvole di punti.

« Penso che gli sforzi open source e gli sforzi di decentralizzazione siano assolutamente utili e vadano a vantaggio di un numero maggiore di ricercatori, professionisti e utenti », ha affermato Chandra. « Tuttavia, nonostante siano open source, i migliori modelli sono ancora inaccessibili a un gran numero di ricercatori e professionisti a causa dei limiti delle loro risorse ».

Le aziende di intelligenza artificiale si piegano alle normative in arrivo

Regolamenti come l’AI Act dell’UE possono cambiare il modo in cui le aziende sviluppano e implementano i sistemi di intelligenza artificiale in futuro. Così potrebbero essere più sforzi locali come lo statuto per l’assunzione di intelligenza artificiale di New York City, che richiede che l’intelligenza artificiale e la tecnologia basata su algoritmi per il reclutamento, l’assunzione o la promozione vengano verificate per rilevare eventuali pregiudizi prima di essere utilizzate.

Chandra vede questi regolamenti come necessari soprattutto alla luce dei difetti tecnici sempre più evidenti dell’IA generativa, come la sua tendenza a fornire informazioni effettivamente sbagliate.

“Ciò rende l’IA generativa difficile da applicare in molte aree in cui gli errori possono avere costi molto elevati, ad esempio l’assistenza sanitaria. Inoltre, la facilità di generare informazioni errate crea problemi legati alla disinformazione e alla disinformazione », ha affermato. “[And yet] I sistemi di intelligenza artificiale stanno già prendendo decisioni cariche di implicazioni morali ed etiche”.

Il prossimo anno porterà solo la minaccia della regolamentazione, tuttavia: aspettati molti più cavilli su regole e casi giudiziari prima che qualcuno venga multato o accusato. Ma le aziende possono ancora lottare per la posizione nelle categorie più vantaggiose delle leggi imminenti, come le categorie di rischio dell’AI Act.

La regola così come attualmente scritta divide i sistemi di intelligenza artificiale in una delle quattro categorie di rischio, ciascuna con requisiti e livelli di controllo diversi. I sistemi nella categoria di rischio più elevato, l’intelligenza artificiale « ad alto rischio » (ad es. algoritmi di valutazione del credito, app di chirurgia robotica), devono soddisfare determinati standard legali, etici e tecnici prima di poter entrare nel mercato europeo. La categoria di rischio più bassa, IA « rischio minimo o nullo » (ad es. filtri antispam, videogiochi abilitati all’IA), impone solo obblighi di trasparenza come rendere gli utenti consapevoli che stanno interagendo con un sistema di IA.

Os Keyes, un dottorato di ricerca. Candidato presso l’Università di Washington, ha espresso preoccupazione per il fatto che le aziende mireranno al livello di rischio più basso al fine di ridurre al minimo le proprie responsabilità e visibilità per le autorità di regolamentazione.

“A parte questa preoccupazione, [the AI Act] davvero la cosa più positiva che vedo sul tavolo « , hanno detto. “Non ho visto molto di qualsiasi cosa fuori dal Congresso”.

Ma gli investimenti non sono una cosa sicura

Gahntz sostiene che, anche se un sistema di intelligenza artificiale funziona abbastanza bene per la maggior parte delle persone ma è profondamente dannoso per alcuni, c’è « ancora molto lavoro da fare » prima che un’azienda lo renda ampiamente disponibile. “C’è anche un business case per tutto questo. Se il tuo modello genera un sacco di cose incasinate, ai consumatori non piacerà « , ha aggiunto. « Ma ovviamente si tratta anche di equità ».

Non è chiaro se le aziende saranno persuase da questo argomento nel prossimo anno, in particolare perché gli investitori sembrano desiderosi di investire i propri soldi al di là di qualsiasi promettente IA generativa.

Nel bel mezzo delle polemiche sulla Stable Diffusion, Stability AI innalzata $ 101 milioni con una valutazione di oltre $ 1 miliardo da importanti sostenitori tra cui Coatue e Lightspeed Venture Partners. OpenAI lo è disse per essere valutato a $ 20 miliardi quando entra discorsi avanzati per raccogliere ulteriori finanziamenti da Microsoft. (Microsoft in precedenza investito $ 1 miliardo in OpenAI nel 2019.)

Naturalmente, quelle potrebbero essere eccezioni alla regola.

Jasper AI

Crediti immagine: Diaspro

Al di fuori delle società di guida autonoma Cruise, Wayve e WeRide e della società di robotica MegaRobo, le aziende di intelligenza artificiale con le migliori prestazioni in termini di denaro raccolto quest’anno erano basate su software, secondo Crunchbase. Contentsquareche vende un servizio che fornisce consigli guidati dall’intelligenza artificiale per i contenuti web, ha chiuso un round da 600 milioni di dollari a luglio. Uniforoche vende software per « analisi conversazionali » (si pensi alle metriche dei call center) e assistenti conversazionali, atterrato 400 milioni di dollari a febbraio. Nel frattempo, Punto altola cui piattaforma basata sull’intelligenza artificiale fornisce a rappresentanti di vendita e professionisti del marketing consigli in tempo reale e basati sui dati, beccato $ 248 milioni a gennaio.

Gli investitori potrebbero inseguire scommesse più sicure come automatizzare l’analisi dei reclami dei clienti o generare lead di vendita, anche se questi non sono così « sexy » come l’IA generativa. Ciò non significa che non ci saranno grandi investimenti che attireranno l’attenzione, ma saranno riservati a giocatori con influenza.

About the author

admin

Leave a Comment