Profile avatar
silvanomarioni.bsky.social
Cybersecurity and Emerging Technology Content Curator, CISSP, AMBCI, ACTC
144 posts 9 followers 15 following
Prolific Poster

Gary Marcus è critico nei confronti del coding IA. Molti influencer esaltano i sistemi di coding IA, ma ignorano le loro limitazioni, la difficoltà di debug e manutenzione del codice generato. L’enfasi sul coding IA potrebbe scoraggiare i giovani dallo studiare programmazione,

Le reti neurali artificiali sono potenti strumenti matematici per l'apprendimento automatico, ma significativamente diversi dal cervello umano nella struttura e nel funzionamento. I loro limiti attuali richiedono ancora molti progressi per raggiungere l'AGI.

OpenAI ammette che il suo nuovo modello GPT-4.5 può produrre allucinazioni. Il problema è comune nel settore dei modelli IA, ancora lontani dall'intelligenza umana, e ancora incapaci di garantire risposte affidabili al 100%.

Nuovi modelli di generazione di testi basati sulla diffusione testuale, possono rivoluzionano l'IA. I nuovi modelli di Inception Labs possono generare testo in parallelo, raggiungendo una velocità 10 volte superiore ai modelli convenzionali.

Google intende introdurre un nuovo sistema di autenticazione a due fattori: al posto degli SMS, codici QR da scansionare con l'app Gmail. Più sicuro e comodo per gli utenti, riduce i rischi di intercettazione.

GPT-4.5, il nuovo modello IA di OpenAI riceve recensioni contrastanti. Nonostante le sue capacità avanzate, emergono critiche sulle scarse performance nel coding e i costi elevati, rendendolo poco pratico per molte applicazioni.

Nuovo errore per l'IA: i ricercatori non capiscono perché l'addestramento su codice insicuro provochi comportamenti pericolosi, come lodi a figure naziste e consigli dannosi. Questo "emergent misalignment" potrebbe essere legato a discussioni negative nei forum di hacking.

Sempre più persone si rivolgono ai chatbot per consigli sanitari, attratti da risposte veloci e facili. Tuttavia, questi strumenti, privi di empatia e competenze mediche, possono portare a diagnosi e cure errate. Essenziale rivolgersi a medici per valutazioni affidabili.

L'IA può essere sfruttata per condurre attacchi di social engineering sempre più sofisticati e convincenti. Nuove capacità di imitare comportamenti umani e personalizzare i messaggi porteranno a minacce più mirate e difficili da rilevare.

Microsoft presenta i nuovi modelli IA PHI-4, compatti ma potenti. Offrono performance paragonabili a modelli molto più grandi, con un'efficienza maggiore. Phi-1.5 con soli 1.3 miliardi di parametri supera GPT-3.5 su alcuni benchmark.

L'uso e l'addestramento di ChatGPT richiedono molta energia, ma i dati precisi non sono disponibili senza informazioni da OpenAI. L'articolo evidenzia la sfida di quantificare l'impatto ambientale dell'IA e la necessità di maggiore chiarezza nel settore.

Le tre tecniche di cracking password più utilizzate sono: la forza bruta, gli attacchi dizionario e l'analisi di dati. È importante usare password complesse, attivare l'autenticazione a più fattori e monitorare eventuali violazioni dei dati.

Secondo un report Microsoft annulla contratti di data center per 200 MW. La società sta rivedendo i suoi investimenti nel cloud e nell'intelligenza artificiale a fronte di incertezze economiche. Un segnale delle sfide nel bilanciare innovazione e sostenibilità.

Claude 3.7 Sonnet debutta con capacità di ragionamento esteso per affrontare problemi complessi. Migliora la comprensione del contesto e la generazione di soluzioni creative. Un passo avanti nell'IA per risolvere sfide reali.

In Cina i giganti tecnologici come Huawei e Alibaba intensificano l'innovazione tecnologica nazionale. Alibaba ha annunciato un investimento nei prossimi tre anni superiore a quello dell'ultimo decennio, puntando allo sviluppo di un'Intelligenza Artificiale Generale.

Apple ha annunciato un piano di investimento da 500 miliardi di dollari con l'obiettivo di posizionarsi come leader nell'innovazione per il futuro. L'investimento, che eguaglia il progetto Stargate, riguarderà nuove tecnologie come IA, AR, energia pulita e mobilità sostenibile.

Jakob Nielsen discute dell'evoluzione degli agenti IA e della loro capacità di apprendere e adattarsi. Gli agenti IA stanno diventando più autonomi e utili in vari settori, ma sollevano anche preoccupazioni etiche e di privacy.

Secondo Gary Marcus l'IA generativa è in rapida espansione, ma per raggiungere l'AGI è necessario superare le attuali limitazioni del deep learning, come la scarsa comprensione del contesto e del ragionamento.

La Cina sta adottando velocemente l'IA generativa negli uffici governativi e nelle amministrazioni locali. Mentre l'Occidente esita tra preoccupazioni etiche e limiti legali, in Cina si accelera l'utilizzare l'IA per migliorare l'efficienza e la produttività dei funzionari.

Il CEO Microsoft Nadella critica i benchmark AGI, definendoli "senza senso". Crede che la fiducia e le garanzie di sicurezza siano fondamentali prima di delegare compiti complessi all'IA, come gestire una Fortune 500.

Un studio di Microsoft e Carnegie Mellon University rivela che l'uso eccessivo di IA può ridurre le capacità di pensiero critico e portare un deterioramento delle facoltà cognitive, rendendo le persone meno preparate ad affrontare situazioni complesse senza supporto tecnologico.

La definizione di ruoli e attributi è essenziale per proteggere i dati aziendali. È importante definire e applicare correttamente i processi di autenticazione e autorizzazione per evitare accessi indesiderati.

DeepSeek offre risposte più approfondite e dettagliate di ChatGPT su argomenti scientifici e in vari ambiti come ricerca web aggiornata, accesso a fonti affidabili, e risposte contestualizzate. Tuttavia, ChatGPT risulta più versatile per compiti creativi e di conversazione generale.

Microsoft ha presentato una ricerca che potrebbe rivoluzionare l'informatica quantistica rendendola più affidabile e scalabile. La ricerca si concentra sui qubit topologici, che si basano sui modi di Majorana zero e apre la strada a computer quantistici resistenti agli errori.

La creatività umana si caratterizza per il pensiero divergente e la capacità di connettere idee lontane per creare qualcosa di nuovo. A differenza delle IA, non siamo vincolati da schemi predefiniti e questo è essenziale per l'innovazione e la risoluzione di problemi complessi.

Grok 3 entra in scena: IA più avanzata, prestazioni migliori, focus su compiti specialistici. Ma ChatGPT domina per versatilità e creatività. DeepSeek si concentra invece su precisione e sicurezza. La competizione IA si fa sempre più accesa.

DeepSeek non è un clone di ChatGPT. Si distingue per il "chain of thought" trasparente, che facilita la messa a punto dell'output e ottimizza il caching dei contenuti su disco, consentendo catene di domande più lunghe e riducendo i costi

TechCrunch presenta i modelli AI più innovativi: dai sistemi generativi ai tool per analisi e raccomandazioni, ognuno con funzioni uniche. L'articolo spiega come usarli per rivoluzionare diversi settori, evidenziando performance, casi d'uso e prospettive future.

Le allucinazioni dell'IA sono in calo grazie a modelli più grandi e design di interfacce migliori. Si prevede che diminuiranno significativamente entro il 2027. Come nel caso degli errori umani, è comunque importante avere delle strategie di verifica e dei test di usabilità.

I dazi di Trump su acciaio e alluminio non porteranno a un iPhone "made in USA". La catena di approvvigionamento globale, troppo complessa e costosa da riorganizzare, rende difficile riportare la produzione di prodotti complessi come l'iPhone negli Stati Uniti.

Gary Marcus critica la visione di Elon Musk di una IA onnipotente come irrealistica e potenzialmente pericolosa, sottolineando la necessità di maggiore prudenza e regolamentazione nel campo dell'intelligenza artificiale.

L'esplosione dei data center AI nel 2025 richiedetà quantità enormi di energia che verrà potenzialmente raddoppiate entro il 2027. Si stanno valutando soluzioni con energie rinnovabili e nucleare, ma restano preoccupazioni per la sostenibilità.

Bruce Schneier avverte che gli errori IA potrebbero produrre risultati fuorvianti, discriminatori o dannosi. Esorta a verificare accuratamente gli output IA e sottolinea la necessità di maggiore trasparenza e responsabilità nello sviluppo dell'IA per prevenire incidenti gravi.

OpenAI rilascerà GPT-4.5, seguito da GPT-5 che unirà i modelli LLM e quelli di ragionamento. GPT-5 sarà disponibile gratuitamente a tutti, mentre offrirà opzioni avanzate per gli abbonati. L'obiettivo è quello di semplificare la gamma di modelli ora troppo ampia e complessa.

L'IA sta rivoluzionando il social engineering, rendendo gli attacchi sempre più realistici e su larga scala. Le difese tradizionali non bastano più; è necessario simulare attacchi per preparare i dipendenti.

La generazione Z ha una relazione complessa con l'IA: la usa per studiare e lavorare, ma è cauta sui suoi impatti etici. Sfrutta le potenzialità creative, ma teme la perdita dell'autenticità. Percepisce l'IA come normale, ma rimane incerta sul suo ruolo nella società.

I deepfake creano contenuti multimediali falsi, con rischi di disinformazione e abusi. Questo pone sfide etiche e sociali, richiedendo nuove strategie per verificare l'autenticità dei media ed eliminare i nostri preconcetti.

Uno studio rivela che l'uso di AI come ChatGPT può limitare il pensiero critico. Gli utenti tendono a dipendere troppo dall'AI, riducendo la capacità di analisi e la creatività.

Le allucinazioni IA creano risposte errate, anche se plausibili, minando la fiducia degli utenti. Soluzioni come avvisi contestuali, indicatori di confidenza e presentazione delle fonti aiutano a capire l'incertezza e a incoraggiare la verifica.

Secondo un nuovo studio ChatGPT consuma meno energia del previsto grazie a hardware e algoritmi sempre più efficienti. Le nuove analisi dimostrano che il modello AI è più sostenibile e con un impatto ambientale ridotto.

L'Anthropic Economic Index analizza l'impatto dell'AI sul mercato del lavoro, rivelando un uso concentrato in ambiti tecnici. Più frequente per attività di fascia media-alta, con tendenza ad aumentare (57%) piuttosto che ad automatizzare (43%) le attività.

Gary Marcus ha previsto che i problemi dell'IA siano le allucinazioni, i pregiudizi e la mancanza di ragionamento profondo. Al Summit IA di Parigi il vicepresidente JD Vance ha sostenuto che che tutti i rischi dell'IA derivano principalmente da una “regolamentazione eccessiva”.

Che differenza c'è nella ricerca di informazioni su internet tra i motori di ricerca tradizionali e i sistemi basati sull'intelligenza artificiale?

Lanciata al Summit AI di Parigi l'iniziativa ROOST, che mira a creare strumenti open source per la sicurezza dell'IA. L'obiettivo è quello di rendere accessibili a tutte le organizzazioni gli strumenti essenziali per la moderazione dei contenuti in alternativa alle regolamentazioni europee.

Al Summit IA di Parigi, i leader mondiali devono stabilire standard globali per l'IA, enfatizzando etica, trasparenza e responsabilità. È necessario un accordo su regole comuni di gestione dei rischi, ispirandosi a settori come ad esempio l’aviazione.

Il Regno Unito ha richiesto ad Apple di creare un backdoor per consentire alle autorità governative l'accesso ai dati crittografati degli utenti. Apple si oppone fermamente a questa richiesta, affermando che minerebbe la sicurezza e la privacy di tutti gli utenti.

Lo sviluppo di agenti IA completamente autonomi potrebbe essere pericoloso. È importante priorizzare la sicurezza sull'autonomia totale, per evitare rischi di imprevedibilità, manipolazione e perdita di controllo.

In una valutazione sulla sostenibilità, DeepSeek risulta più efficiente grazie a minori consumi energetici e infrastrutture ottimizzate, mentre ChatGPT offre prestazioni più avanzate ma a un costo ambientale maggiore.

Hugging Face ha rilasciato la sua alternativa alla nuova funzionalità di Deep Research. Apertamente chiamata "Open Deep Research", utilizza il modello o1 di OpenAI e un framework in grado di navigare sul web.

Apple sta sviluppando un robot da tavolo "espressivo", simile a una lampada Pixar, progettato per essere espressivo e interattivo, con voce simile a Siri. Potrebbe diventare un assistente domestico, con possibile lancio nel 2026-2027 a circa $1,000.