Binance Square

MrAnderson

Operazione aperta
Commerciante frequente
6.1 anni
Metaverso, Ingeniería en Inteligencia Artificial, Análisis Criptos, Filosofia Práctica y mucha meditación.✌🤠
19 Seguiti
620 Follower
794 Mi piace
199 Condivisioni
Tutti i contenuti
Portafoglio
--
Visualizza originale
Un esperto in cybersecurity avverte che l'entusiasmo per ChatGPT è una bolla insostenibile. Mentre i leader del settore difendono una crescita sostenibile, gli analisti ricordano casi storici di sovravalutazione e suggeriscono prudenza di fronte alla velocità e al volume degli investimenti attuali L'entusiasmo globale verso l'intelligenza artificiale e strumenti come ChatGPT ha spinto investimenti milionari nel settore tecnologico. Tuttavia, voci critiche avvertono che questa espansione potrebbe stia gonfiando una bolla difficile da sostenere. Shlomo Kramer, co-fondatore dell'azienda di cybersecurity Cato Networks, ha affermato che l'entità degli investimenti in IA non è giustificata dai risultati attuali e che, prima o poi, molte aziende potrebbero affrontare gravi conseguenze se la realtà non corrisponderà alle aspettative generate. La crescita dell'intelligenza artificiale è stata così rapida che molte aziende hanno messo il loro futuro in gioco con l'automazione e il trattamento dei dati su larga scala. ChatGPT e altri modelli generativi hanno alimentato la percezione che l'IA sarà il motore dominante dell'economia e dell'innovazione nei prossimi anni. Ma secondo Kramer, esiste una disconnessione tra la promessa e i benefici reali ottenuti finora. Perché gli esperti avvertono di una bolla nell'IA Kramer non ha esitato a definire il fenomeno una "bolla da manuale". In dichiarazioni a Business Insider, ha sottolineato che gli investimenti nell'intelligenza artificiale sono sovravalutati e che la tecnologia non progredisce nella stessa misura del capitale destinato al suo sviluppo.
Un esperto in cybersecurity avverte che l'entusiasmo per ChatGPT è una bolla insostenibile.

Mentre i leader del settore difendono una crescita sostenibile, gli analisti ricordano casi storici di sovravalutazione e suggeriscono prudenza di fronte alla velocità e al volume degli investimenti attuali

L'entusiasmo globale verso l'intelligenza artificiale e strumenti come ChatGPT ha spinto investimenti milionari nel settore tecnologico.

Tuttavia, voci critiche avvertono che questa espansione potrebbe stia gonfiando una bolla difficile da sostenere.

Shlomo Kramer, co-fondatore dell'azienda di cybersecurity Cato Networks, ha affermato che l'entità degli investimenti in IA non è giustificata dai risultati attuali e che, prima o poi, molte aziende potrebbero affrontare gravi conseguenze se la realtà non corrisponderà alle aspettative generate.

La crescita dell'intelligenza artificiale è stata così rapida che molte aziende hanno messo il loro futuro in gioco con l'automazione e il trattamento dei dati su larga scala.

ChatGPT e altri modelli generativi hanno alimentato la percezione che l'IA sarà il motore dominante dell'economia e dell'innovazione nei prossimi anni.

Ma secondo Kramer, esiste una disconnessione tra la promessa e i benefici reali ottenuti finora.

Perché gli esperti avvertono di una bolla nell'IA

Kramer non ha esitato a definire il fenomeno una "bolla da manuale".

In dichiarazioni a Business Insider, ha sottolineato che gli investimenti nell'intelligenza artificiale sono sovravalutati e che la tecnologia non progredisce nella stessa misura del capitale destinato al suo sviluppo.
Visualizza originale
OpenAI offre USD 550 mil di salario per assumere un esperto che li prepari di fronte ai pericoli dell'IA La compagnia statunitense intensifica lo sviluppo di meccanismi avanzati per garantire la protezione e la fiducia degli utenti nell'ecosistema digitale OpenAI ha pubblicato un'offerta di lavoro per una posizione di alto livello orientata ad anticipare e mitigare i pericoli dell'intelligenza artificiale, con una remunerazione annuale di USD 555.000 più azioni. La vacante cerca di incorporare un capo di preparazione che assuma un ruolo fondamentale nell'identificazione e risposta ai rischi associati alla salute mentale degli utenti e alla sicurezza informatica, il che riflette l'aumento delle sfide legate al dispiegamento massivo di modelli di IA. Il posto richiede di prendere decisioni cruciali fin dal momento dell'assunzione. In una pubblicazione di X, Sam Altman, amministratore delegato di OpenAI, ha sottolineato il livello di esigente del ruolo: “Sarà un lavoro ad alta pressione e in cui si affronteranno responsabilità critiche fin dall'inizio”. Il profilo richiesto deve apportare approcci efficaci per sviluppare soluzioni che consentano ai difensori della cibersicurezza di sfruttare capacità all'avanguardia, mentre si blocca il loro uso improprio da parte di attori maliziosi. Si pone anche l'urgenza di garantire strategie sicure per il rilascio di capacità biologiche e per mantenere l'integrità di sistemi con capacità di auto-miglioramento. Questa decisione obbedisce alla crescente preoccupazione nell'industria tecnologica sui rischi reputazionali e operativi derivanti dall'avanzamento dell'intelligenza artificiale. Un rapporto divulgato a novembre da una società di analisi finanziaria ha segnalato che, nei primi undici mesi dell'ultimo anno, almeno 418 aziende valutate in più di USD 1.000 milioni hanno menzionato rischi legati all'IA nei loro rapporti alla Commissione di Borsa e Valori degli Stati Uniti.
OpenAI offre USD 550 mil di salario per assumere un esperto che li prepari di fronte ai pericoli dell'IA

La compagnia statunitense intensifica lo sviluppo di meccanismi avanzati per garantire la protezione e la fiducia degli utenti nell'ecosistema digitale

OpenAI ha pubblicato un'offerta di lavoro per una posizione di alto livello orientata ad anticipare e mitigare i pericoli dell'intelligenza artificiale, con una remunerazione annuale di USD 555.000 più azioni.

La vacante cerca di incorporare un capo di preparazione che assuma un ruolo fondamentale nell'identificazione e risposta ai rischi associati alla salute mentale degli utenti e alla sicurezza informatica, il che riflette l'aumento delle sfide legate al dispiegamento massivo di modelli di IA.

Il posto richiede di prendere decisioni cruciali fin dal momento dell'assunzione. In una pubblicazione di X, Sam Altman, amministratore delegato di OpenAI, ha sottolineato il livello di esigente del ruolo: “Sarà un lavoro ad alta pressione e in cui si affronteranno responsabilità critiche fin dall'inizio”.

Il profilo richiesto deve apportare approcci efficaci per sviluppare soluzioni che consentano ai difensori della cibersicurezza di sfruttare capacità all'avanguardia, mentre si blocca il loro uso improprio da parte di attori maliziosi. Si pone anche l'urgenza di garantire strategie sicure per il rilascio di capacità biologiche e per mantenere l'integrità di sistemi con capacità di auto-miglioramento.

Questa decisione obbedisce alla crescente preoccupazione nell'industria tecnologica sui rischi reputazionali e operativi derivanti dall'avanzamento dell'intelligenza artificiale.

Un rapporto divulgato a novembre da una società di analisi finanziaria ha segnalato che, nei primi undici mesi dell'ultimo anno, almeno 418 aziende valutate in più di USD 1.000 milioni hanno menzionato rischi legati all'IA nei loro rapporti alla Commissione di Borsa e Valori degli Stati Uniti.
Visualizza originale
L'IA crea più tensione: i dipendenti vogliono lavorare meno perché l'IA aiuta. I CEO esigono che la gente sia macchine senza sosta. Sotto la scusa della produttività, i CEO ogni volta esigono più ore. Nel frattempo, la gente spera che l'IA riduca il tempo delle loro mansioni. L'equilibrio tra vita lavorativa e vita personale contro le giornate 996 che molte aziende di IA stanno esigendo sia negli Stati Uniti che in Europa. C'è una distanza importante tra ciò che i dipendenti hanno iniziato ad apprezzare col passare del tempo e ciò che i dirigenti stanno richiedendo nelle aziende ai loro lavoratori sotto la minaccia che un'intelligenza artificiale possa togliergli il lavoro. E nuovi dati mettono sul tavolo questa realtà. Secondo Randstad, il 74% della generazione Z considera che l'equilibrio tra vita lavorativa e personale sia una delle principali considerazioni al momento di scegliere un lavoro nel 2025, la percentuale più alta di tutte le generazioni. Secondo Fortune, nei 20 anni in cui ha elaborato il suo rapporto Workmonitor, è la prima volta che l'equilibrio tra vita lavorativa e personale supera il salario come fattore principale per tutti i lavoratori. In Genbeta abbiamo già raccolto altri rapporti che mostrano tendenze simili. La società di consulenza Deloitte affermava in un rapporto del 2023 che i giovani "hanno una prospettiva totalmente unica delle carriere professionali e di come definire il successo nella vita e nel mondo del lavoro" rispetto agli anziani. E il rapporto affermava che "le loro priorità sono trovare un equilibrio tra vita lavorativa e personale ma anche che il loro lavoro abbia un senso di scopo e che possano apprendere e acquisire nuove competenze". Le ambizioni dei lavoratori... e l'IA Ma... tutto questo si scontra con un'altra realtà. Man mano che l'IA ha rimodellato le strutture aziendali, molti dirigenti affermano di lavorare più duramente che mai e si aspettano che tutti gli altri seguano il loro esempio.
L'IA crea più tensione: i dipendenti vogliono lavorare meno perché l'IA aiuta. I CEO esigono che la gente sia macchine senza sosta.

Sotto la scusa della produttività, i CEO ogni volta esigono più ore. Nel frattempo, la gente spera che l'IA riduca il tempo delle loro mansioni.

L'equilibrio tra vita lavorativa e vita personale contro le giornate 996 che molte aziende di IA stanno esigendo sia negli Stati Uniti che in Europa.

C'è una distanza importante tra ciò che i dipendenti hanno iniziato ad apprezzare col passare del tempo e ciò che i dirigenti stanno richiedendo nelle aziende ai loro lavoratori sotto la minaccia che un'intelligenza artificiale possa togliergli il lavoro.

E nuovi dati mettono sul tavolo questa realtà. Secondo Randstad, il 74% della generazione Z considera che l'equilibrio tra vita lavorativa e personale sia una delle principali considerazioni al momento di scegliere un lavoro nel 2025, la percentuale più alta di tutte le generazioni.

Secondo Fortune, nei 20 anni in cui ha elaborato il suo rapporto Workmonitor, è la prima volta che l'equilibrio tra vita lavorativa e personale supera il salario come fattore principale per tutti i lavoratori.

In Genbeta abbiamo già raccolto altri rapporti che mostrano tendenze simili.

La società di consulenza Deloitte affermava in un rapporto del 2023 che i giovani "hanno una prospettiva totalmente unica delle carriere professionali e di come definire il successo nella vita e nel mondo del lavoro" rispetto agli anziani.

E il rapporto affermava che "le loro priorità sono trovare un equilibrio tra vita lavorativa e personale ma anche che il loro lavoro abbia un senso di scopo e che possano apprendere e acquisire nuove competenze".

Le ambizioni dei lavoratori... e l'IA
Ma... tutto questo si scontra con un'altra realtà.

Man mano che l'IA ha rimodellato le strutture aziendali, molti dirigenti affermano di lavorare più duramente che mai e si aspettano che tutti gli altri seguano il loro esempio.
Visualizza originale
Sam Altman (40), creatore di ChatGPT, esperto in intelligenza artificiale: “Ci saranno momenti davvero spaventosi. Spero che accadano alcune cose brutte a causa della tecnologia” Il CEO di OpenAI tende a mostrarsi ottimista riguardo all'intelligenza artificiale, anche se è consapevole del rischio che comporta lo sviluppo della tecnologia. Parlare di Sam Altman, CEO di OpenAI, significa parlare probabilmente del guru tecnologico del momento. Si dice spesso che chi colpisce per primo, colpisce due volte e questo stesso principio possiamo applicare in questo caso dato che con il lancio di ChatGPT il 30 novembre 2022, l'esperto si è anticipato a tutti ed è diventato senza volerlo il riferimento. La creatura di Altman ha tracciato il cammino da seguire per il resto e se parliamo di chatbot o di grandi modelli di linguaggio (LLM, per usare l'acronimo in inglese) è indubbia la sua egemonia. Ciò non significa che sia necessariamente il migliore o che non ci siano buone alternative al momento, ma è riuscito a installarsi nella memoria collettiva come il pioniere e questo è un enorme vantaggio competitivo. E quel fatto, per di più, ha incoronato anche il suo principale istigatore. Sam Altman non ha il curriculum dei grandi come Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Stuart Russell o Ray Kurzweil, per citarne alcuni, ma tuttavia la sua opinione è spesso tra le più influenti e quella che penetra in modo più profondo nell'opinione pubblica perché è il volto amichevole dell'intelligenza artificiale. Le peggiori paure di Sam Altman Quando appare in un podcast o in un programma televisivo negli ultimi tempi, una costante sempre più frequente, tende a mostrare una fiducia relativamente cieca nello sviluppo della tecnologia e nelle sue enormi possibilità. Mostra un enorme entusiasmo per il futuro che ci attende. E non è sorprendente perché alla fine deve anche vendere le eccellenze del suo prodotto, ma se leggiamo tra le righe c'è anche spazio per un uomo tormentato che ha acceso un interruttore che non sappiamo se potremo spegnere arrivato il momento.
Sam Altman (40), creatore di ChatGPT, esperto in intelligenza artificiale: “Ci saranno momenti davvero spaventosi.

Spero che accadano alcune cose brutte a causa della tecnologia”

Il CEO di OpenAI tende a mostrarsi ottimista riguardo all'intelligenza artificiale, anche se è consapevole del rischio che comporta lo sviluppo della tecnologia.

Parlare di Sam Altman, CEO di OpenAI, significa parlare probabilmente del guru tecnologico del momento.

Si dice spesso che chi colpisce per primo, colpisce due volte e questo stesso principio possiamo applicare in questo caso dato che con il lancio di ChatGPT il 30 novembre 2022, l'esperto si è anticipato a tutti ed è diventato senza volerlo il riferimento.

La creatura di Altman ha tracciato il cammino da seguire per il resto e se parliamo di chatbot o di grandi modelli di linguaggio (LLM, per usare l'acronimo in inglese) è indubbia la sua egemonia.

Ciò non significa che sia necessariamente il migliore o che non ci siano buone alternative al momento, ma è riuscito a installarsi nella memoria collettiva come il pioniere e questo è un enorme vantaggio competitivo.

E quel fatto, per di più, ha incoronato anche il suo principale istigatore.

Sam Altman non ha il curriculum dei grandi come Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Stuart Russell o Ray Kurzweil, per citarne alcuni, ma tuttavia la sua opinione è spesso tra le più influenti e quella che penetra in modo più profondo nell'opinione pubblica perché è il volto amichevole dell'intelligenza artificiale.

Le peggiori paure di Sam Altman
Quando appare in un podcast o in un programma televisivo negli ultimi tempi, una costante sempre più frequente, tende a mostrare una fiducia relativamente cieca nello sviluppo della tecnologia e nelle sue enormi possibilità. Mostra un enorme entusiasmo per il futuro che ci attende.

E non è sorprendente perché alla fine deve anche vendere le eccellenze del suo prodotto, ma se leggiamo tra le righe c'è anche spazio per un uomo tormentato che ha acceso un interruttore che non sappiamo se potremo spegnere arrivato il momento.
Visualizza originale
Hai perso il tuo investimento amico. non perdere 25$ mas. questo è un modo di truffa dove ti chiedono soldi per poter ricevere i guadagni esagerati che ti hanno offerto.
Hai perso il tuo investimento amico. non perdere 25$ mas. questo è un modo di truffa dove ti chiedono soldi per poter ricevere i guadagni esagerati che ti hanno offerto.
Il contenuto citato è stato rimosso
Visualizza originale
Sam Altman, creatore di ChatGPT e CEO di OpenAI: “L'intelligenza artificiale rappresenta un cambiamento radicale nel ventaglio di possibilità” L'esperto tecnologico ha annunciato un nuovo avanzamento che incorpora l'IA e potrebbe rivoluzionare il nostro modo di lavorare e vivere. L'intelligenza artificiale nella vita quotidiana non è una realtà molto lontana. Ci sono già persone che ricorrono a ChatGPT o utilizzano assistenti virtuali simili per pianificare progetti e ordinare compiti. È la mano destra di molti e, sebbene abbia limitazioni, è sempre più avanzata. Gli esperti in questa tecnologia lavorano per aumentare le sue capacità e offrire un prodotto che migliori le nostre vite. Sam Altman, creatore di ChatGPT e CEO di OpenAI, ha annunciato quale sarà il suo prossimo lancio. Forse l'intelligenza artificiale è al suo punto più alto, ma non possiamo saperlo con certezza perché la tecnologia avanza a grande velocità. Alcuni esperti prevedono che, tra 10 anni, l'IA rivoluzionerà il settore lavorativo così come lo conosciamo. Altri opinano che avrà un ruolo molto più importante capace di sostituire centinaia di compiti umani. Mentre arriva questo scenario, gli esperti lavorano su nuovi dispositivi.
Sam Altman, creatore di ChatGPT e CEO di OpenAI: “L'intelligenza artificiale rappresenta un cambiamento radicale nel ventaglio di possibilità”

L'esperto tecnologico ha annunciato un nuovo avanzamento che incorpora l'IA e potrebbe rivoluzionare il nostro modo di lavorare e vivere. L'intelligenza artificiale nella vita quotidiana non è una realtà molto lontana.

Ci sono già persone che ricorrono a ChatGPT o utilizzano assistenti virtuali simili per pianificare progetti e ordinare compiti.

È la mano destra di molti e, sebbene abbia limitazioni, è sempre più avanzata.

Gli esperti in questa tecnologia lavorano per aumentare le sue capacità e offrire un prodotto che migliori le nostre vite. Sam Altman, creatore di ChatGPT e CEO di OpenAI, ha annunciato quale sarà il suo prossimo lancio.

Forse l'intelligenza artificiale è al suo punto più alto, ma non possiamo saperlo con certezza perché la tecnologia avanza a grande velocità.

Alcuni esperti prevedono che, tra 10 anni, l'IA rivoluzionerà il settore lavorativo così come lo conosciamo.

Altri opinano che avrà un ruolo molto più importante capace di sostituire centinaia di compiti umani.

Mentre arriva questo scenario, gli esperti lavorano su nuovi dispositivi.
--
Ribassista
Visualizza originale
Wall Street ritira USD 900 milioni di bitcoin, accelerando il crollo Gli ETF di bitcoin spot hanno registrato la seconda maggiore uscita giornaliera di capitale della loro storia. I fondi quotati in borsa (ETF) di bitcoin (BTC) spot che operano a Wall Street hanno registrato un'uscita di capitale di 900 milioni di dollari nella giornata di ieri, 20 novembre. Questo movimento massivo di investitori costituisce la seconda maggiore uscita giornaliera di capitale dal lancio di questi prodotti di investimento nel gennaio 2024, esercitando una pressione al ribasso significativa su bitcoin. L'esodo di capitale è stato guidato dal fondo iShares Bitcoin Trust (IBIT), gestito da BlackRock, con riscatti che hanno raggiunto i 355 milioni di dollari. Ha seguito il Grayscale Bitcoin Trust (GBTC), che ha riportato uscite per 199 milioni di dollari. Altri fondi che hanno contribuito al ritiro di capitale sono stati quelli gestiti da società come Fidelity, VanEck, Bitwise e Ark Invest. Nel grafico qui sotto si osserva come siano stati i flussi di capitale da o verso gli ETF di BTC. Il funzionamento degli ETF spot implica che le gestori comprano e mantengono bitcoin per sostenere le azioni che emettono. Pertanto, quando gli investitori ritirano il loro capitale, i gestori sono costretti a vendere parte delle loro partecipazioni nella moneta digitale per coprire detti riscatti. Questo incremento dell'offerta di bitcoin sul mercato, senza la domanda sufficiente per assorbirla, agisce come un fattore diretto di pressione al ribasso sul suo prezzo.
Wall Street ritira USD 900 milioni di bitcoin, accelerando il crollo

Gli ETF di bitcoin spot hanno registrato la seconda maggiore uscita giornaliera di capitale della loro storia.

I fondi quotati in borsa (ETF) di bitcoin (BTC) spot che operano a Wall Street hanno registrato un'uscita di capitale di 900 milioni di dollari nella giornata di ieri, 20 novembre.

Questo movimento massivo di investitori costituisce la seconda maggiore uscita giornaliera di capitale dal lancio di questi prodotti di investimento nel gennaio 2024, esercitando una pressione al ribasso significativa su bitcoin.

L'esodo di capitale è stato guidato dal fondo iShares Bitcoin Trust (IBIT), gestito da BlackRock, con riscatti che hanno raggiunto i 355 milioni di dollari.

Ha seguito il Grayscale Bitcoin Trust (GBTC), che ha riportato uscite per 199 milioni di dollari.

Altri fondi che hanno contribuito al ritiro di capitale sono stati quelli gestiti da società come Fidelity, VanEck, Bitwise e Ark Invest.

Nel grafico qui sotto si osserva come siano stati i flussi di capitale da o verso gli ETF di BTC.

Il funzionamento degli ETF spot implica che le gestori comprano e mantengono bitcoin per sostenere le azioni che emettono.

Pertanto, quando gli investitori ritirano il loro capitale, i gestori sono costretti a vendere parte delle loro partecipazioni nella moneta digitale per coprire detti riscatti.

Questo incremento dell'offerta di bitcoin sul mercato, senza la domanda sufficiente per assorbirla, agisce come un fattore diretto di pressione al ribasso sul suo prezzo.
--
Ribassista
Visualizza originale
Sam Altman, massimo responsabile di ChatGPT, condivide il suo "miglior consiglio professionale accidentale" Il miglior momento per dedicarsi all'informatica è ora. Almeno così crede l'amministratore delegato di OpenAI e massimo responsabile di ChatGPT, Sam Altman. "Che momento interessante e promettente", commentava Altman in un'intervista con Dan Boneh, professore all'Università di Stanford (negli Stati Uniti), pubblicata questo mercoledì. "Ovviamente, mi concentrerei sull'IA". Il CEO di una delle aziende di intelligenza artificiale più all'avanguardia del momento ha sostenuto che l'IA non è solo il campo professionale più caldo in questo momento, ma è anche la tecnologia che definirà questa generazione. "Potrebbe essere la cosa più importante in un periodo di tempo molto più lungo", ha aggiunto Altman. Questo imprenditore ha espresso apertamente la sua convinzione che l'intelligenza artificiale trasformerà quasi tutti gli aspetti del lavoro e della società. L'amministratore delegato di OpenAI sosteneva la settimana scorsa nell'ultimo episodio del podcast Conversations with Tyler che si vergognerebbe se la sua azienda non fosse la prima grande organizzazione guidata da un "CEO di IA". L'intelligenza artificiale generale (AGI, acronimo in inglese), quella tecnologia che sarebbe in grado di ragionare in modo uguale o superiore a un essere umano, è stato il principale obiettivo della sviluppatrice di ChatGPT sin dai suoi primi giorni come laboratorio di ricerca. In una trasmissione in diretta che si è svolta in ottobre, Altman ha detto che lo scopo di OpenAI è "avere un vero ricercatore di IA automatizzato per marzo 2028". Durante la sua recente intervista con Boneh, l'imprenditore ha anche condiviso quello che lui stesso ha chiamato il suo "miglior consiglio professionale accidentale".
Sam Altman, massimo responsabile di ChatGPT, condivide il suo "miglior consiglio professionale accidentale"

Il miglior momento per dedicarsi all'informatica è ora.

Almeno così crede l'amministratore delegato di OpenAI e massimo responsabile di ChatGPT, Sam Altman.

"Che momento interessante e promettente", commentava Altman in un'intervista con Dan Boneh, professore all'Università di Stanford (negli Stati Uniti), pubblicata questo mercoledì. "Ovviamente, mi concentrerei sull'IA".

Il CEO di una delle aziende di intelligenza artificiale più all'avanguardia del momento ha sostenuto che l'IA non è solo il campo professionale più caldo in questo momento, ma è anche la tecnologia che definirà questa generazione.

"Potrebbe essere la cosa più importante in un periodo di tempo molto più lungo", ha aggiunto Altman.

Questo imprenditore ha espresso apertamente la sua convinzione che l'intelligenza artificiale trasformerà quasi tutti gli aspetti del lavoro e della società.

L'amministratore delegato di OpenAI sosteneva la settimana scorsa nell'ultimo episodio del podcast Conversations with Tyler che si vergognerebbe se la sua azienda non fosse la prima grande organizzazione guidata da un "CEO di IA".

L'intelligenza artificiale generale (AGI, acronimo in inglese), quella tecnologia che sarebbe in grado di ragionare in modo uguale o superiore a un essere umano, è stato il principale obiettivo della sviluppatrice di ChatGPT sin dai suoi primi giorni come laboratorio di ricerca.

In una trasmissione in diretta che si è svolta in ottobre, Altman ha detto che lo scopo di OpenAI è "avere un vero ricercatore di IA automatizzato per marzo 2028".

Durante la sua recente intervista con Boneh, l'imprenditore ha anche condiviso quello che lui stesso ha chiamato il suo "miglior consiglio professionale accidentale".
Visualizza originale
Bajando tutto tranne il cambio USDT/VES 😂
Bajando tutto tranne il cambio USDT/VES 😂
--
Ribassista
Visualizza originale
$BTC is Incidente 👀
$BTC is Incidente 👀
Visualizza originale
Sam Altman, CEO di OpenAI, è stato interrotto e citato in giudizio durante un evento. La citazione è stata presentata in rappresentanza di Stop AI, un collettivo che realizza manifestazioni contro OpenAI e che in ripetute occasioni ha bloccato gli accessi della sede dell'azienda nella città. Sam Altman, direttore esecutivo di OpenAI e una delle figure più influenti nell'avanzamento dell'intelligenza artificiale, è stato sorpreso lunedì quando un uomo è salito sul palco durante un evento pubblico e gli ha consegnato una citazione giudiziaria, provocando fischi e mormorii tra i partecipanti. Altman stava partecipando a una chiacchierata con l'allenatore dei Golden State Warriors, Steve Kerr, moderata da Manny Yekutiel. Nel mezzo della conversazione, un individuo è irrompito sul palco per consegnargli una citazione. Sebbene il documento non sia arrivato direttamente nelle mani di Altman, un membro della sicurezza lo ha preso e ha scortato l'uomo fuori dal luogo, la notifica rimane valida ai sensi della legge californiana anche se la persona citata non la riceve fisicamente. L'identità dell'uomo è stata successivamente confermata: si tratta di un dipendente dell'Ufficio del Difensore Pubblico di San Francisco. La citazione è stata presentata in rappresentanza di Stop AI, un collettivo che realizza manifestazioni contro OpenAI e che in ripetute occasioni ha bloccato gli accessi della sede dell'azienda nella città. Alcuni dei suoi membri sono stati arrestati e sono in attesa di processo. Secondo la portavoce dell'Ufficio del Difensore Pubblico, Valerie Ibarra, si era già tentato di citare precedentemente Altman sia presso la sede della sua azienda che tramite richieste elettroniche, senza successo. Altman è stato chiamato a testimoniare come possibile testimone nel processo penale in cui gli attivisti sono accusati di ostruzione durante le loro manifestazioni. In una dichiarazione pubblicata su X, il gruppo Stop AI ha affermato che il loro obiettivo è attirare l'attenzione su quello che considerano una minaccia esistenziale: lo sviluppo di sistemi di intelligenza artificiale più avanzati dell'essere umano.
Sam Altman, CEO di OpenAI, è stato interrotto e citato in giudizio durante un evento.

La citazione è stata presentata in rappresentanza di Stop AI, un collettivo che realizza manifestazioni contro OpenAI e che in ripetute occasioni ha bloccato gli accessi della sede dell'azienda nella città.

Sam Altman, direttore esecutivo di OpenAI e una delle figure più influenti nell'avanzamento dell'intelligenza artificiale, è stato sorpreso lunedì quando un uomo è salito sul palco durante un evento pubblico e gli ha consegnato una citazione giudiziaria, provocando fischi e mormorii tra i partecipanti.

Altman stava partecipando a una chiacchierata con l'allenatore dei Golden State Warriors, Steve Kerr, moderata da Manny Yekutiel. Nel mezzo della conversazione, un individuo è irrompito sul palco per consegnargli una citazione.

Sebbene il documento non sia arrivato direttamente nelle mani di Altman, un membro della sicurezza lo ha preso e ha scortato l'uomo fuori dal luogo, la notifica rimane valida ai sensi della legge californiana anche se la persona citata non la riceve fisicamente.

L'identità dell'uomo è stata successivamente confermata: si tratta di un dipendente dell'Ufficio del Difensore Pubblico di San Francisco.

La citazione è stata presentata in rappresentanza di Stop AI, un collettivo che realizza manifestazioni contro OpenAI e che in ripetute occasioni ha bloccato gli accessi della sede dell'azienda nella città. Alcuni dei suoi membri sono stati arrestati e sono in attesa di processo.

Secondo la portavoce dell'Ufficio del Difensore Pubblico, Valerie Ibarra, si era già tentato di citare precedentemente Altman sia presso la sede della sua azienda che tramite richieste elettroniche, senza successo.

Altman è stato chiamato a testimoniare come possibile testimone nel processo penale in cui gli attivisti sono accusati di ostruzione durante le loro manifestazioni.

In una dichiarazione pubblicata su X, il gruppo Stop AI ha affermato che il loro obiettivo è attirare l'attenzione su quello che considerano una minaccia esistenziale: lo sviluppo di sistemi di intelligenza artificiale più avanzati dell'essere umano.
Visualizza originale
L'investimento, quella quota iniziale carica di sogni e speranze di un futuro risolto, dove il suo risultato è l'epitome dell'abbondanza e della tranquillità. Mentre le perdite e la scarsa redditività sono l'aberrazione che trasforma l'investimento in una transazione marginale. È necessario applicare il rischio beneficio per poter determinare se un investimento è sostenuto dal buon senso e dalla lucidità per raggiungere il vero successo.
L'investimento, quella quota iniziale carica di sogni e speranze di un futuro risolto, dove il suo risultato è l'epitome dell'abbondanza e della tranquillità.

Mentre le perdite e la scarsa redditività sono l'aberrazione che trasforma l'investimento in una transazione marginale.

È necessario applicare il rischio beneficio per poter determinare se un investimento è sostenuto dal buon senso e dalla lucidità per raggiungere il vero successo.
Visualizza originale
Sam Altman, creatore di ChatGPT, esperto in intelligenza artificiale: “Non dormo bene di notte. Non ho dormito bene nemmeno una sola notte da quando è stato lanciato ChatGPT” Il CEO di OpenAI assicura che le responsabilità riguardo al suo lavoro con ChatGPT e le decisioni che deve prendere sono un onere difficile da gestire, soprattutto quando si affrontano anche questioni morali. Molto è stato detto e scritto negli ultimi tempi sull'intelligenza artificiale e le sue diverse implicazioni a livello geopolitico, sociale, sanitario, economico o lavorativo. Si è anche speculato su termini come la singolarità, il punto teorico in cui la macchina supererà l'uomo in intelligenza, o il transumanesimo, che fantastica di migliorare le capacità umane sotto l'egida della tecnologia in vista dell'immortalità. Tuttavia, non si parla tanto del dibattito sulla moralità e su quali siano i principi etici su cui si basa l'intelligenza artificiale quando qualcuno come te o come me le pone una questione. “Come dovrebbe comportarsi il modello di linguaggio? Cosa dovrebbe fare? Come rifiutare qualcosa? Come si suppone che debba rispondere? Il peso di prendere decisioni che influenzano milioni di persone Evidentemente, nessuno meglio di Sam Altman, creatore di ChatGPT, per rispondere a come si comporta la sua creatura e quali sono i limiti che sono stati tracciati o le sfide a cui si confronta, che non sono poche. "È una questione difficile perché ci sono molte persone con diverse prospettive di vita, ma in generale mi ha sorpreso la capacità generale del modello di apprendere e applicare un quadro morale", assicura in un'intervista a The Tucker Carlson Show.
Sam Altman, creatore di ChatGPT, esperto in intelligenza artificiale: “Non dormo bene di notte. Non ho dormito bene nemmeno una sola notte da quando è stato lanciato ChatGPT”

Il CEO di OpenAI assicura che le responsabilità riguardo al suo lavoro con ChatGPT e le decisioni che deve prendere sono un onere difficile da gestire, soprattutto quando si affrontano anche questioni morali.

Molto è stato detto e scritto negli ultimi tempi sull'intelligenza artificiale e le sue diverse implicazioni a livello geopolitico, sociale, sanitario, economico o lavorativo.

Si è anche speculato su termini come la singolarità, il punto teorico in cui la macchina supererà l'uomo in intelligenza, o il transumanesimo, che fantastica di migliorare le capacità umane sotto l'egida della tecnologia in vista dell'immortalità.

Tuttavia, non si parla tanto del dibattito sulla moralità e su quali siano i principi etici su cui si basa l'intelligenza artificiale quando qualcuno come te o come me le pone una questione.

“Come dovrebbe comportarsi il modello di linguaggio? Cosa dovrebbe fare? Come rifiutare qualcosa? Come si suppone che debba rispondere?

Il peso di prendere decisioni che influenzano milioni di persone

Evidentemente, nessuno meglio di Sam Altman, creatore di ChatGPT, per rispondere a come si comporta la sua creatura e quali sono i limiti che sono stati tracciati o le sfide a cui si confronta, che non sono poche.

"È una questione difficile perché ci sono molte persone con diverse prospettive di vita, ma in generale mi ha sorpreso la capacità generale del modello di apprendere e applicare un quadro morale", assicura in un'intervista a The Tucker Carlson Show.
Visualizza originale
Gli esperti contraddicono Bill Gates: l'intelligenza artificiale aumenterà il carico di lavoro invece di ridurlo Bill Gates prevede settimane lavorative più corte grazie all'IA, ma gli esperti avvertono di uno scenario opposto Negli ultimi anni, diverse figure influenti del mondo tecnologico, come Bill Gates, Sam Altman o Elon Musk, hanno concordato sul fatto che l'intelligenza artificiale trasformerà il modo in cui le persone lavorano. Gates, in particolare, ha sottolineato che l'automazione permetterà di ridurre le ore lavorative e che le persone potranno dedicare più tempo ai propri interessi personali o creativi. Tuttavia, un gruppo crescente di esperti non condivide questo ottimismo. Secondo questi specialisti, la storia recente dimostra che l'introduzione di nuove tecnologie non sempre si traduce in meno lavoro, ma piuttosto in un aumento del carico di lavoro e in una maggiore difficoltà a disconnettersi. Invece di liberare tempo, l'IA potrebbe elevare le aspettative di produttività e ampliare le frontiere tra lavoro e vita personale. Gli esperti sostengono che l'intelligenza artificiale potrebbe ripetere lo stesso modello osservato con l'arrivo di Internet, degli smartphone o della posta elettronica: strumenti creati per facilitare la vita lavorativa, ma che hanno finito per generare nuovi obblighi e per estendere l'orario di lavoro oltre i limiti tradizionali. Il mito delle giornate ridotte Bill Gates ha immaginato un futuro in cui le persone lavorano solo tre giorni a settimana, confidando che l'IA assumerà i compiti più ripetitivi o amministrativi. Tuttavia, i ricercatori che studiano l'evoluzione dell'occupazione e della tecnologia affermano che questo scenario è poco probabile. Secondo la loro analisi, l'introduzione di sistemi di automazione è solitamente accompagnata da un incremento delle aspettative di rendimento.
Gli esperti contraddicono Bill Gates: l'intelligenza artificiale aumenterà il carico di lavoro invece di ridurlo
Bill Gates prevede settimane lavorative più corte grazie all'IA, ma gli esperti avvertono di uno scenario opposto

Negli ultimi anni, diverse figure influenti del mondo tecnologico, come Bill Gates, Sam Altman o Elon Musk, hanno concordato sul fatto che l'intelligenza artificiale trasformerà il modo in cui le persone lavorano.

Gates, in particolare, ha sottolineato che l'automazione permetterà di ridurre le ore lavorative e che le persone potranno dedicare più tempo ai propri interessi personali o creativi.

Tuttavia, un gruppo crescente di esperti non condivide questo ottimismo.

Secondo questi specialisti, la storia recente dimostra che l'introduzione di nuove tecnologie non sempre si traduce in meno lavoro, ma piuttosto in un aumento del carico di lavoro e in una maggiore difficoltà a disconnettersi.

Invece di liberare tempo, l'IA potrebbe elevare le aspettative di produttività e ampliare le frontiere tra lavoro e vita personale.

Gli esperti sostengono che l'intelligenza artificiale potrebbe ripetere lo stesso modello osservato con l'arrivo di Internet, degli smartphone o della posta elettronica: strumenti creati per facilitare la vita lavorativa, ma che hanno finito per generare nuovi obblighi e per estendere l'orario di lavoro oltre i limiti tradizionali.

Il mito delle giornate ridotte

Bill Gates ha immaginato un futuro in cui le persone lavorano solo tre giorni a settimana, confidando che l'IA assumerà i compiti più ripetitivi o amministrativi.

Tuttavia, i ricercatori che studiano l'evoluzione dell'occupazione e della tecnologia affermano che questo scenario è poco probabile.

Secondo la loro analisi, l'introduzione di sistemi di automazione è solitamente accompagnata da un incremento delle aspettative di rendimento.
Visualizza originale
Addio agli 'influencer': Sam Altman, creatore di ChatGPT, crede che potrebbero scomparire se l'IA è brava a creare contenuti. Non importa cosa possano pensare in molti: Sam Altman, CEO di OpenAI, dice che crede che ChatGPT sia sulla strada per avere più conversazioni al giorno di tutti gli esseri umani messi insieme. ChatGPT è uscito a novembre 2022, e rapidamente è diventato il prodotto tecnologico a crescita più rapida nella storia. Ora, Sam Altman è completamente immerso nel progetto Sora, la sua nuova applicazione di video brevi con IA che promette di rivoluzionare il mondo audiovisivo dell'universo 3.0. Uno strumento che ti consente di dare sfogo alla tua immaginazione, con qualsiasi personaggio in scenari di ogni tipo; ma anche per influenzare un collettivo: i creatori di contenuti umani. Le innovazioni dell'applicazione sono notevoli, ma anche le sue infinite possibilità, che mettono in difficoltà gli influencer e i youtuber attuali. Così ha dato a intendere lo stesso Altman durante un'intervista insieme a Bill Peebles, responsabile del progetto Sora, dichiarando che “alla gente non importa se il contenuto è generato da un umano o da un'intelligenza artificiale”, purché sia originale e di qualità. Secondo il direttore di OpenAI, ciò che cercano veramente gli spettatori è un “contenuto buono, originale, riflessivo, nuovo e utile”, indipendentemente dalla sua provenienza. Nel suo intervento nel programma digitale TBPN, Altman ha spiegato che il futuro della comunicazione visiva passerà per la collaborazione tra umani e tecnologia, inesorabilmente. $BTC
Addio agli 'influencer': Sam Altman, creatore di ChatGPT, crede che potrebbero scomparire se l'IA è brava a creare contenuti.

Non importa cosa possano pensare in molti: Sam Altman, CEO di OpenAI, dice che crede che ChatGPT sia sulla strada per avere più conversazioni al giorno di tutti gli esseri umani messi insieme.

ChatGPT è uscito a novembre 2022, e rapidamente è diventato il prodotto tecnologico a crescita più rapida nella storia.

Ora, Sam Altman è completamente immerso nel progetto Sora, la sua nuova applicazione di video brevi con IA che promette di rivoluzionare il mondo audiovisivo dell'universo 3.0.

Uno strumento che ti consente di dare sfogo alla tua immaginazione, con qualsiasi personaggio in scenari di ogni tipo; ma anche per influenzare un collettivo: i creatori di contenuti umani.

Le innovazioni dell'applicazione sono notevoli, ma anche le sue infinite possibilità, che mettono in difficoltà gli influencer e i youtuber attuali.

Così ha dato a intendere lo stesso Altman durante un'intervista insieme a Bill Peebles, responsabile del progetto Sora, dichiarando che “alla gente non importa se il contenuto è generato da un umano o da un'intelligenza artificiale”, purché sia originale e di qualità.

Secondo il direttore di OpenAI, ciò che cercano veramente gli spettatori è un “contenuto buono, originale, riflessivo, nuovo e utile”, indipendentemente dalla sua provenienza.

Nel suo intervento nel programma digitale TBPN, Altman ha spiegato che il futuro della comunicazione visiva passerà per la collaborazione tra umani e tecnologia, inesorabilmente.
$BTC
Visualizza originale
L'informazione, quella luce senza la quale la saggezza non può vedere, ma anche l'ombra che, nel suo eccesso, ci acceca e ci impedisce di trovare la vera conoscenza. Si presenta come un requisito indispensabile per raggiungere la saggezza, come la luce lo è per la vista; così come un'ombra densa, l'eccesso di dati senza contesto o significato può essere dannoso, sopraffacendoci e rendendo difficile la comprensione profonda. Riflette l'idea che avere molti dati non equivale ad avere comprensione, e tanto meno saggezza; la sfida è discernere e organizzare l'informazione affinché diventi conoscenza significativa.
L'informazione, quella luce senza la quale la saggezza non può vedere, ma anche l'ombra che, nel suo eccesso, ci acceca e ci impedisce di trovare la vera conoscenza.

Si presenta come un requisito indispensabile per raggiungere la saggezza, come la luce lo è per la vista; così come un'ombra densa, l'eccesso di dati senza contesto o significato può essere dannoso, sopraffacendoci e rendendo difficile la comprensione profonda.

Riflette l'idea che avere molti dati non equivale ad avere comprensione, e tanto meno saggezza; la sfida è discernere e organizzare l'informazione affinché diventi conoscenza significativa.
Visualizza originale
Potrebbe esserci una bolla dell'IA, ma è una "bolla buona", sostengono gli investitori e, ovviamente, i fondatori di startup La logica ci dice che le aziende che perdono denaro in modo costante dovrebbero avere un futuro nero. Ciò che sta accadendo nel mondo dell'IA è esattamente l'opposto, e in questo momento dieci startup in numeri rosso intenso hanno realizzato in un anno qualcosa di insolito: in un anno sono cresciute di un trilione di dollari nella loro valutazione complessiva. È qualcosa di semplicemente straordinario... e inquietante. Le tre grandi. OpenAI è senza dubbio la protagonista di questo gruppo selezionato, e oggigiorno si stima che la sua valutazione raggiunga mezzo trilione di dollari. L'azienda di Elon Musk, xAI, è valutata 200.000 milioni, mentre Anthropic si avvicina anche a quella cifra secondo uno studio del Financial Times. E le sue immediate inseguitrici. Databricks, che è stata fondata nel 2013, è stata rapida ad unirsi a quel segmento e ora ha una valutazione stimata di 100.000 milioni di dollari. Figure (robotica), SSI (la startup di Sutskever), Scale AI, Perplexity, Thinking Machine Lab (la startup di Mira Murati) o Cursor completano quel gruppo di startup di nuova creazione (quasi tutte) e con valutazioni esplosive. Febbre da investimento. Quella crescita nella loro valutazione è dovuta, come no, al fatto che tutte quelle aziende hanno raccolto ronde di investimento multimilionarie da parte di aziende che credono in un futuro pieno di IA. Infatti, le aziende di capitale di rischio e di investimento negli Stati Uniti hanno iniettato 161.000 milioni di dollari nel corso di quest'anno, e lo hanno fatto senza poter vedere nemmeno un accenno che la loro scommessa possa essere vincente. Tutte queste aziende di IA bruciano denaro come se non ci fosse un domani, e la loro redditività e futuro è un'assoluta incognita. Le bolle sono buone. "Certo che c'è una bolla [dell'IA]". Chi lo dice è Hermant Taneja, presidente della società di capitale di rischio General Catalyst.
Potrebbe esserci una bolla dell'IA, ma è una "bolla buona", sostengono gli investitori e, ovviamente, i fondatori di startup

La logica ci dice che le aziende che perdono denaro in modo costante dovrebbero avere un futuro nero.

Ciò che sta accadendo nel mondo dell'IA è esattamente l'opposto, e in questo momento dieci startup in numeri rosso intenso hanno realizzato in un anno qualcosa di insolito: in un anno sono cresciute di un trilione di dollari nella loro valutazione complessiva. È qualcosa di semplicemente straordinario... e inquietante.

Le tre grandi. OpenAI è senza dubbio la protagonista di questo gruppo selezionato, e oggigiorno si stima che la sua valutazione raggiunga mezzo trilione di dollari.

L'azienda di Elon Musk, xAI, è valutata 200.000 milioni, mentre Anthropic si avvicina anche a quella cifra secondo uno studio del Financial Times.

E le sue immediate inseguitrici. Databricks, che è stata fondata nel 2013, è stata rapida ad unirsi a quel segmento e ora ha una valutazione stimata di 100.000 milioni di dollari. Figure (robotica), SSI (la startup di Sutskever), Scale AI, Perplexity, Thinking Machine Lab (la startup di Mira Murati) o Cursor completano quel gruppo di startup di nuova creazione (quasi tutte) e con valutazioni esplosive.

Febbre da investimento.

Quella crescita nella loro valutazione è dovuta, come no, al fatto che tutte quelle aziende hanno raccolto ronde di investimento multimilionarie da parte di aziende che credono in un futuro pieno di IA.

Infatti, le aziende di capitale di rischio e di investimento negli Stati Uniti hanno iniettato 161.000 milioni di dollari nel corso di quest'anno, e lo hanno fatto senza poter vedere nemmeno un accenno che la loro scommessa possa essere vincente.

Tutte queste aziende di IA bruciano denaro come se non ci fosse un domani, e la loro redditività e futuro è un'assoluta incognita.

Le bolle sono buone. "Certo che c'è una bolla [dell'IA]". Chi lo dice è Hermant Taneja, presidente della società di capitale di rischio General Catalyst.
Visualizza originale
I nuovi accordi sui chip di OpenAI pongono una domanda difficile: Da dove verrà tutta l'energia? Il produttore di ChatGPT ha firmato un accordo di collaborazione multimilionario con AMD per implementare 6 gigawatt di chip di intelligenza artificiale dell'azienda di semiconduttori. La settimana scorsa, OpenAI e il progettista di chip Nvidia hanno annunciato un accordo per 10 gigawatt di potenza informatica. OpenAI ha dichiarato di avere disperatamente bisogno di accedere a più potenza di calcolo per portare avanti la sua ambiziosa strategia di crescita, ma i suoi recenti accordi sui chip hanno generato un'altra necessità cruciale: più energia. Negli Stati Uniti, la corsa all'IA ha messo a dura prova la rete elettrica fino quasi al punto di rottura. Le aziende di servizi pubblici segnalano che saranno necessari circa 60 gigawatt di nuova energia, l'equivalente del consumo di sei grandi città, entro la fine del decennio. Le aziende elettriche possono impiegare anni per pianificare e realizzare le udienze regolamentari necessarie per avviare nuove infrastrutture. Con il rapido ritmo di annunci di nuovi chip, gli esperti affermano che diventa sempre più necessario che i centri di dati rinuncino alle aziende di servizi pubblici e inizino a fornire la propria energia. "Il settore in generale sa da anni che stiamo raggiungendo il limite della capacità della rete", osserva Sean Farney, vicepresidente della strategia dei centri di dati per l'America di Jones Lang Lasalle. "Per vincere in questo gioco, devono essere innovativi e lanciare queste soluzioni di autogenerazione". OpenAI sta già fornendo energia al suo centro dati di Abilene (Texas), che fa parte del progetto Stargate, attraverso un impianto a gas naturale situato nelle strutture. Elon Musk sta fornendo energia a un centro dati di xAI a Memphis con turbine mobili a gas naturale e ha acquistato le strutture di una vecchia centrale a gas in Mississippi.
I nuovi accordi sui chip di OpenAI pongono una domanda difficile: Da dove verrà tutta l'energia?

Il produttore di ChatGPT ha firmato un accordo di collaborazione multimilionario con AMD per implementare 6 gigawatt di chip di intelligenza artificiale dell'azienda di semiconduttori.

La settimana scorsa, OpenAI e il progettista di chip Nvidia hanno annunciato un accordo per 10 gigawatt di potenza informatica.

OpenAI ha dichiarato di avere disperatamente bisogno di accedere a più potenza di calcolo per portare avanti la sua ambiziosa strategia di crescita, ma i suoi recenti accordi sui chip hanno generato un'altra necessità cruciale: più energia.

Negli Stati Uniti, la corsa all'IA ha messo a dura prova la rete elettrica fino quasi al punto di rottura.

Le aziende di servizi pubblici segnalano che saranno necessari circa 60 gigawatt di nuova energia, l'equivalente del consumo di sei grandi città, entro la fine del decennio.

Le aziende elettriche possono impiegare anni per pianificare e realizzare le udienze regolamentari necessarie per avviare nuove infrastrutture.

Con il rapido ritmo di annunci di nuovi chip, gli esperti affermano che diventa sempre più necessario che i centri di dati rinuncino alle aziende di servizi pubblici e inizino a fornire la propria energia.

"Il settore in generale sa da anni che stiamo raggiungendo il limite della capacità della rete", osserva Sean Farney, vicepresidente della strategia dei centri di dati per l'America di Jones Lang Lasalle.

"Per vincere in questo gioco, devono essere innovativi e lanciare queste soluzioni di autogenerazione".

OpenAI sta già fornendo energia al suo centro dati di Abilene (Texas), che fa parte del progetto Stargate, attraverso un impianto a gas naturale situato nelle strutture.

Elon Musk sta fornendo energia a un centro dati di xAI a Memphis con turbine mobili a gas naturale e ha acquistato le strutture di una vecchia centrale a gas in Mississippi.
Visualizza originale
Sam Altman (40), creatore di ChatGPT, sul futuro dell'intelligenza artificiale: "L'educazione dei nostri figli sarà molto diversa, l'università non sarà un'opzione per molte persone" Negli ultimi tempi è evidente che l'intelligenza artificiale è diventata un tema di dibattito ricorrente. La preoccupazione per come influenzerà le nostre vite, ora che comincia a essere una ‘minaccia’ reale, fa sì che tutti cerchino di anticipare le sue possibili conseguenze e speculano su come questa tecnologia andrà a configurare il nostro ambiente nei prossimi anni. La sua implementazione, la gestione etica dei dati e la privacy, la trasparenza e il bias algoritmico, la cybersicurezza, l'impatto sul mercato del lavoro, la necessità di talenti qualificati, la legislazione, la mancanza di infrastrutture o il controllo stesso delle capacità dell'intelligenza artificiale da parte dell'essere umano sono questioni che preoccupano notevolmente. L'educazione nell'era dell'intelligenza artificiale Tuttavia, nonostante l'importanza di tutti questi temi, non è meno vero che dovremmo anche preoccuparci di chi erediterà questa tecnologia nel suo massimo splendore. Cosa succede con le nuove generazioni? I bambini sono pronti a cavalcare l'IA? Come li influenzerà? "Non mi preoccupano i bambini, mi preoccupano i genitori". Così dirompente e sincero si mostra Sam Altman, creatore di ChatGPT e CEO di OpenAI, in This past weekend, il podcast condotto da Theo Von. "Se guardi la storia del mondo, quando emerge una nuova tecnologia, le persone che crescono con essa sanno sempre cosa fare e come adattarsi. Ma se hai 50 anni, imparare a fare le cose in modo molto diverso da come sei abituato non sempre funziona". E, come dimostrazione, condivide due esempi rivelatori che riassumono l'importanza di essere un nativo digitale per affrontare i cambiamenti tecnologici. "La nostra generazione non è cresciuta senza computer. Può darsi che per noi siano stati qualcosa di nuovo in un determinato momento, ma sono sempre stati lì"
Sam Altman (40), creatore di ChatGPT, sul futuro dell'intelligenza artificiale: "L'educazione dei nostri figli sarà molto diversa, l'università non sarà un'opzione per molte persone"

Negli ultimi tempi è evidente che l'intelligenza artificiale è diventata un tema di dibattito ricorrente.

La preoccupazione per come influenzerà le nostre vite, ora che comincia a essere una ‘minaccia’ reale, fa sì che tutti cerchino di anticipare le sue possibili conseguenze e speculano su come questa tecnologia andrà a configurare il nostro ambiente nei prossimi anni.

La sua implementazione, la gestione etica dei dati e la privacy, la trasparenza e il bias algoritmico, la cybersicurezza, l'impatto sul mercato del lavoro, la necessità di talenti qualificati, la legislazione, la mancanza di infrastrutture o il controllo stesso delle capacità dell'intelligenza artificiale da parte dell'essere umano sono questioni che preoccupano notevolmente.

L'educazione nell'era dell'intelligenza artificiale

Tuttavia, nonostante l'importanza di tutti questi temi, non è meno vero che dovremmo anche preoccuparci di chi erediterà questa tecnologia nel suo massimo splendore.

Cosa succede con le nuove generazioni? I bambini sono pronti a cavalcare l'IA? Come li influenzerà?

"Non mi preoccupano i bambini, mi preoccupano i genitori". Così dirompente e sincero si mostra Sam Altman, creatore di ChatGPT e CEO di OpenAI, in This past weekend, il podcast condotto da Theo Von.

"Se guardi la storia del mondo, quando emerge una nuova tecnologia, le persone che crescono con essa sanno sempre cosa fare e come adattarsi.

Ma se hai 50 anni, imparare a fare le cose in modo molto diverso da come sei abituato non sempre funziona".

E, come dimostrazione, condivide due esempi rivelatori che riassumono l'importanza di essere un nativo digitale per affrontare i cambiamenti tecnologici.

"La nostra generazione non è cresciuta senza computer. Può darsi che per noi siano stati qualcosa di nuovo in un determinato momento, ma sono sempre stati lì"
Visualizza originale
Sam Altman, CEO di ChatGPT, conferma ciò che tutti temono con Sora 2: 'Andremo a rivedere i creatori di proprietà intellettuale' Fino ad ora, il modello di generazione video di OpenAI funzionava con una politica di esclusione volontaria, un sistema che differiva dal quadro legale dei diritti d'autore Sin dai primi inciampi dei generatori video con IA, la preoccupazione sui diritti d'autore non ha tardato ad apparire. L'idea di poter mettere Pikachu o Darth Vader in qualsiasi scena con solo un prompt sollevava un immediato rischio legale per i creatori del modello. Oggi, con strumenti più sofisticati come Sora 2, il dilemma persiste: personaggi che non appartengono a OpenAI continuano a essere rappresentati liberamente secondo l'indicazione dell'utente. La settimana scorsa, Sam Altman, CEO di OpenAI, ha presentato un approccio di esclusione volontaria in Sora 2. Questo consente ai titolari di diritti di decidere se il loro contenuto può essere utilizzato nella generazione video. Come avvertiva The Hollywood Reporter, questa non è la dinamica abituale della legge sulla proprietà intellettuale. Fino ad ora, Sora 2 proteggeva la proprietà intellettuale occidentale, ma non quella giapponese: franchise come Pokémon o Dragon Ball erano territorio libero. Con l'aggiornamento, Altman ha confermato in un blog che questa politica cambia verso un sistema opzionale, dando ai creatori un "controllo più granulare" sui loro personaggi. "Abbiamo ricevuto commenti da numerosi titolari di diritti molto interessati a questo nuovo tipo di ‘fiction interattiva dei fan’. Li attrae l'idea della partecipazione che genera valore, ma vogliono poter decidere come vengono usati i loro personaggi, anche vietandone l'uso completamente", ha scritto Altman. Dietro a questi aggiustamenti c'è anche una questione economica: generare video con Sora 2 consuma molta energia qualcosa che è sempre stato al centro del dibattito sull'intelligenza artificiale, e l'intenzione è di condividere i ricavi con i titolari di IP che lo permettono, creando un modello che, secondo Altman, beneficia tutte le parti.
Sam Altman, CEO di ChatGPT, conferma ciò che tutti temono con Sora 2: 'Andremo a rivedere i creatori di proprietà intellettuale'

Fino ad ora, il modello di generazione video di OpenAI funzionava con una politica di esclusione volontaria, un sistema che differiva dal quadro legale dei diritti d'autore

Sin dai primi inciampi dei generatori video con IA, la preoccupazione sui diritti d'autore non ha tardato ad apparire.

L'idea di poter mettere Pikachu o Darth Vader in qualsiasi scena con solo un prompt sollevava un immediato rischio legale per i creatori del modello.

Oggi, con strumenti più sofisticati come Sora 2, il dilemma persiste: personaggi che non appartengono a OpenAI continuano a essere rappresentati liberamente secondo l'indicazione dell'utente.

La settimana scorsa, Sam Altman, CEO di OpenAI, ha presentato un approccio di esclusione volontaria in Sora 2.

Questo consente ai titolari di diritti di decidere se il loro contenuto può essere utilizzato nella generazione video. Come avvertiva The Hollywood Reporter, questa non è la dinamica abituale della legge sulla proprietà intellettuale.

Fino ad ora, Sora 2 proteggeva la proprietà intellettuale occidentale, ma non quella giapponese: franchise come Pokémon o Dragon Ball erano territorio libero.

Con l'aggiornamento, Altman ha confermato in un blog che questa politica cambia verso un sistema opzionale, dando ai creatori un "controllo più granulare" sui loro personaggi.

"Abbiamo ricevuto commenti da numerosi titolari di diritti molto interessati a questo nuovo tipo di ‘fiction interattiva dei fan’.

Li attrae l'idea della partecipazione che genera valore, ma vogliono poter decidere come vengono usati i loro personaggi, anche vietandone l'uso completamente", ha scritto Altman.

Dietro a questi aggiustamenti c'è anche una questione economica: generare video con Sora 2 consuma molta energia qualcosa che è sempre stato al centro del dibattito sull'intelligenza artificiale, e l'intenzione è di condividere i ricavi con i titolari di IP che lo permettono, creando un modello che, secondo Altman, beneficia tutte le parti.
Accedi per esplorare altri contenuti
Esplora le ultime notizie sulle crypto
⚡️ Partecipa alle ultime discussioni sulle crypto
💬 Interagisci con i tuoi creator preferiti
👍 Goditi i contenuti che ti interessano
Email / numero di telefono

Ultime notizie

--
Vedi altro
Mappa del sito
Preferenze sui cookie
T&C della piattaforma