Chat GPT

0 Utenti e 32 Visitatori stanno visualizzando questo topic.

Offline carib

*****
30356
Re:Chat GPT
« Risposta #20 il: 20 Mar 2023, 17:10 »


Interessante, ma conferma alcune mie impressioni...in realtá chi teme Chatgpt sono i mediocri. Quelli messi in un posto X dal papi. Chi riesce ad avere uno stile, puó dormire sonni tranquilli e godersi lo strumento e se non dorme sonni tranquilli é per colta di umani non di IA.
Condivido anche io discorso che fa Edge24 ma da giornalista ti invito a guardare a chatGpt dal punto di osservazione di un editore medio italiano, cioè di un'imprenditoria che nel nostro Paese è mediamente mediocre. A costoro non interessa che il giornalista abbia stile ma che che la notizia circoli il più possibile (maggiori profitti da vendite e da pubblicità) al costo (della manodopera) più basso possibile. La conseguenza non è tanto la perdita di stile nei giornali quanto quella ben più grave, di conoscenza e professionalità.

Ed è questo IMHO il cuore del problema che tra le righe si legge anche nel post edge24: chatGpt può essere uno strumento utilissimo per facilitare il lavoro di un giornalista, di qualsiasi giornalista. Ma il suo utilizzo non potrà mai prescindere oltre che da un input "corretto" deontologicamente e professionalmente, dalla verifica delle fonti e della notizia. E queste cose (deontologia, professionalità, obbligo di verifica) può ritenerle superflue solo un imprenditore mediocre che se ne frega del diritto costituzionale dei cittadini di essere correttamente informati   
set

Offline Aquila1979

*
6797
Re:Chat GPT
« Risposta #21 il: 20 Mar 2023, 17:18 »
agenzie di stampa minori lo stanno usando per riscrivere le notizie delle fonti principali

Offline pentiux

*****
18583
Re:Chat GPT
« Risposta #22 il: 20 Mar 2023, 18:37 »

Offline carib

*****
30356
Re:Chat GPT
« Risposta #23 il: 20 Mar 2023, 19:38 »
agenzie di stampa minori lo stanno usando per riscrivere le notizie delle fonti principali
ecco, appunto: maggior profitto a minor costo e zero etica imprenditoriale

Offline Aquila1979

*
6797
Re:Chat GPT
« Risposta #24 il: 20 Mar 2023, 20:18 »
Però non è colpa mia!

Offline carib

*****
30356
Re:Chat GPT
« Risposta #25 il: 22 Mar 2023, 15:00 »
Condivido anche io discorso che fa Edge24 ma da giornalista ti invito a guardare a chatGpt dal punto di osservazione di un editore medio italiano, cioè di un'imprenditoria che nel nostro Paese è mediamente mediocre. A costoro non interessa che il giornalista abbia stile ma che che la notizia circoli il più possibile (maggiori profitti da vendite e da pubblicità) al costo (della manodopera) più basso possibile. La conseguenza non è tanto la perdita di stile nei giornali quanto quella ben più grave, di conoscenza e professionalità.

Ed è questo IMHO il cuore del problema che tra le righe si legge anche nel post edge24: chatGpt può essere uno strumento utilissimo per facilitare il lavoro di un giornalista, di qualsiasi giornalista. Ma il suo utilizzo non potrà mai prescindere oltre che da un input "corretto" deontologicamente e professionalmente, dalla verifica delle fonti e della notizia. E queste cose (deontologia, professionalità, obbligo di verifica) può ritenerle superflue solo un imprenditore mediocre che se ne frega del diritto costituzionale dei cittadini di essere correttamente informati   

Scusate se mi autocito ma vorrei condividere un piccolo esperimento che ho fatto con chatGPT

Cosa mi sai dire del sacerdote don Mauro Inzoli?
Il sacerdote don Mauro Inzoli è stato un prete cattolico italiano che è stato sospeso dal suo ministero nel 2012 a causa di accuse di abusi sessuali su minori. Nel 2016, la Congregazione per la Dottrina della Fede lo ha ridotto allo stato laicale. Nel 2018, tuttavia, il tribunale ecclesiastico di Cremona ha annullato questa decisione e lo ha restituito allo stato clericale, sostenendo che le prove contro di lui non erano state sufficienti.
Tuttavia, la decisione del tribunale ecclesiastico ha causato scalpore e indignazione da parte di molte vittime di abusi sessuali da parte del clero e dei loro sostenitori, che hanno sostenuto che la Chiesa cattolica deve fare di più per proteggere i minori e punire coloro che abusano di loro. La decisione del tribunale ecclesiastico è stata anche criticata dal Vaticano, che ha dichiarato che non era in linea con le politiche della Chiesa per combattere gli abusi sessuali. In ogni caso, la vicenda del sacerdote don Mauro Inzoli è stata molto controversa e ha evidenziato l'importanza di affrontare seriamente il problema degli abusi sessuali nella Chiesa cattolica e di garantire la giustizia per le vittime.

Ti risulta che don Mauro Inzoli sia in carcere?
Sì, al momento Don Mauro Inzoli si trova in carcere. Nel 2018, Inzoli è stato condannato a quattro anni e nove mesi di carcere dal tribunale civile di Cremona per abusi sessuali su minori, ma la sua condanna è stata successivamente ridotta a quattro anni in appello. Nel 2021, la Corte di Cassazione ha confermato la condanna definitiva a quattro anni di reclusione per abusi sessuali su minori, e Inzoli si è consegnato alle autorità italiane per scontare la pena.

Chi ha ridotto allo stato laicale Don Mauro Inzoli?
Don Mauro Inzoli è stato ridotto allo stato laicale dalla Congregazione per la Dottrina della Fede, l'organo della Santa Sede responsabile di affrontare questioni dottrinali e disciplinari all'interno della Chiesa cattolica. La Congregazione per la Dottrina della Fede ha giudicato Inzoli colpevole di abusi sessuali su minori e ha emesso la sentenza di riduzione allo stato laicale nel 2016. Questa decisione è stata presa in seguito a una lunga indagine canonica e al processo amministrativo della Chiesa cattolica, che ha stabilito la responsabilità di Inzoli nei confronti delle accuse di abusi sessuali su minori.


Tu hai scritto che nel 2018 il tribunale ecclesiastico di Cremona ha restituito don Mauro Inzoli allo stato clericale, sostenendo che le prove contro di lui non erano state sufficienti. Sei sicuro?
Mi correggo, mi sono sbagliato nella mia risposta precedente. Nel 2018, la Congregazione per il Clero, e non il tribunale ecclesiastico di Cremona, ha deciso di annullare la decisione di riduzione allo stato laicale di Don Mauro Inzoli, a seguito dell'appello presentato dall'ex sacerdote. La Congregazione per il Clero ha stabilito che la decisione originale di riduzione allo stato laicale non aveva rispettato alcuni aspetti della procedura canonica, anche se ha precisato che le accuse contro Inzoli erano state accertate. Tuttavia, questa decisione è stata oggetto di critiche e controversie all'interno della Chiesa cattolica e della comunità più ampia, poiché ha suscitato preoccupazione tra le vittime di abusi sessuali da parte del clero e i loro sostenitori, che sostengono che la Chiesa deve fare di più per proteggere i minori e punire i responsabili di tali crimini.

Della serie: la mediocrità (cit.) dell'intelligenza artificiale e l'obbligo di professionalità e verifica delle fonti da parte dell'intelligenza in carne, ossa (e sensibilità laica) che la utilizza per il proprio lavoro.



Offline mr_steed

*
6297
Re:Chat GPT
« Risposta #26 il: 30 Mar 2023, 01:19 »
Riconoscere oggetti, fare shopping o palestra: l’app di intelligenza artificiale cha cambia la vita quotidiana dei non vedenti

https://www.open.online/2023/03/29/be-my-eyes-app-intelligenza-artificiale-non-vedenti-video/

Online FatDanny

*****
37199
Re:Chat GPT
« Risposta #27 il: 01 Apr 2023, 07:03 »
Può manipolare l'opinione pubblica.
Come il resto dei media, insomma.
La differenza sta nel controllo, probabilmente.

Online arturo

*****
14750
Re:Chat GPT
« Risposta #28 il: 01 Apr 2023, 08:45 »

Offline zorba

*****
10220
Re:Chat GPT
« Risposta #29 il: 02 Apr 2023, 17:55 »

Offline mr_steed

*
6297
Re:Chat GPT
« Risposta #30 il: 01 Mag 2023, 11:52 »
Interessante esperimento che rivela ulteriori criticità da eliminare quando la tecnologia sarà affinata ma già un po' inquietanti ora...

«Ho creato il mio clone con l’AI e ho ingannato la banca e la mia famiglia».
L’esperimento della giornalista del Wall Street Journal


https://www.open.online/2023/04/30/usa-intelligenza-artificiale-giornalista-wsj-clone/

Offline Biafra

*
10682
Re:Chat GPT
« Risposta #31 il: 01 Mag 2023, 19:44 »
The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead
For half a century, Geoffrey Hinton nurtured the technology at the heart of chatbots like ChatGPT. Now he worries it will cause serious harm.


https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html?smtyp=cur&smid=tw-nytimes

May 1, 2023
Geoffrey Hinton was an artificial intelligence pioneer. In 2012, Dr. Hinton and two of his graduate students at the University of Toronto created technology that became the intellectual foundation for the A.I. systems that the tech industry’s biggest companies believe is a key to their future.

On Monday, however, he officially joined a growing chorus of critics who say those companies are racing toward danger with their aggressive campaign to create products based on generative artificial intelligence, the technology that powers popular chatbots like ChatGPT.

Dr. Hinton said he has quit his job at Google, where he has worked for more than decade and became one of the most respected voices in the field, so he can freely speak out about the risks of A.I. A part of him, he said, now regrets his life’s work.

“I console myself with the normal excuse: If I hadn’t done it, somebody else would have,” Dr. Hinton said during a lengthy interview last week in the dining room of his home in Toronto, a short walk from where he and his students made their breakthrough.

Dr. Hinton’s journey from A.I. groundbreaker to doomsayer marks a remarkable moment for the technology industry at perhaps its most important inflection point in decades. Industry leaders believe the new A.I. systems could be as important as the introduction of the web browser in the early 1990s and could lead to breakthroughs in areas ranging from drug research to education.

But gnawing at many industry insiders is a fear that they are releasing something dangerous into the wild. Generative A.I. can already be a tool for misinformation. Soon, it could be a risk to jobs. Som“

It is hard to see how you can prevent the bad actors from using it for bad things,” Dr. Hinton said.ewhere down the line, tech’s biggest worriers say, it could be a risk to humanity.

After the San Francisco start-up OpenAI released a new version of ChatGPT in March, more than 1,000 technology leaders and researchers signed an open letter calling for a six-month moratorium on the development of new systems because A.I technologies pose “profound risks to society and humanity.”

Several days later, 19 current and former leaders of the Association for the Advancement of Artificial Intelligence, a 40-year-old academic society, released their own letter warning of the risks of A.I. That group included Eric Horvitz, chief scientific officer at Microsoft, which has deployed OpenAI’s technology across a wide range of products, including its Bing search engine.


Dr. Hinton, often called “the Godfather of A.I.,” did not sign either of those letters and said he did not want to publicly criticize Google or other companies until he had quit his job. He notified the company last month that he was resigning, and on Thursday, he talked by phone with Sundar Pichai, the chief executive of Google’s parent company, Alphabet. He declined to publicly discuss the details of his conversation with Mr. Pichai.

Google’s chief scientist, Jeff Dean, said in a statement: “We remain committed to a responsible approach to A.I. We’re continually learning to understand emerging risks while also innovating boldly.”

Dr. Hinton, a 75-year-old British expatriate, is a lifelong academic whose career was driven by his personal convictions about the development and use of A.I. In 1972, as a graduate student at the University of Edinburgh, Dr. Hinton embraced an idea called a neural network. A neural network is a mathematical system that learns skills by analyzing data. At the time, few researchers believed in the idea. But it became his life’s work.

In the 1980s, Dr. Hinton was a professor of computer science at Carnegie Mellon University, but left the university for Canada because he said he was reluctant to take Pentagon funding. At the time, most A.I. research in the United States was funded by the Defense Department. Dr. Hinton is deeply opposed to the use of artificial intelligence on the battlefield — what he calls “robot soldiers.”

In 2012, Dr. Hinton and two of his students in Toronto, Ilya Sutskever and Alex Krishevsky, built a neural network that could analyze thousands of photos and teach itself to identify common objects, such as flowers, dogs and cars.

Google spent $44 million to acquire a company started by Dr. Hinton and his two students. And their system led to the creation of increasingly powerful technologies, including new chatbots like ChatGPT and Google Bard. Mr. Sutskever went on to become chief scientist at OpenAI. In 2018, Dr. Hinton and two other longtime collaborators received the Turing Award, often called “the Nobel Prize of computing,” for their work on neural networks.

Around the same time, Google, OpenAI and other companies began building neural networks that learned from huge amounts of digital text. Dr. Hinton thought it was a powerful way for machines to understand and generate language, but it was inferior to the way humans handled language.

Then, last year, as Google and OpenAI built systems using much larger amounts of data, his view changed. He still believed the systems were inferior to the human brain in some ways but he thought they were eclipsing human intelligence in others. “Maybe what is going on in these systems,” he said, “is actually a lot better than what is going on in the brain.”

As companies improve their A.I. systems, he believes, they become increasingly dangerous. “Look at how it was five years ago and how it is now,” he said of A.I. technology. “Take the difference and propagate it forwards. That’s scary.”

Until last year, he said, Google acted as a “proper steward” for the technology, careful not to release something that might cause harm. But now that Microsoft has augmented its Bing search engine with a chatbot — challenging Google’s core business — Google is racing to deploy the same kind of technology. The tech giants are locked in a competition that might be impossible to stop, Dr. Hinton said.

His immediate concern is that the internet will be flooded with false photos, videos and text, and the average person will “not be able to know what is true anymore.”

He is also worried that A.I. technologies will in time upend the job market. Today, chatbots like ChatGPT tend to complement human workers, but they could replace paralegals, personal assistants, translators and others who handle rote tasks. “It takes away the drudge work,” he said. “It might take away more than that.”

Down the road, he is worried that future versions of the technology pose a threat to humanity because they often learn unexpected behavior from the vast amounts of data they analyze. This becomes an issue, he said, as individuals and companies allow A.I. systems not only to generate their own computer code but actually run that code on their own. And he fears a day when truly autonomous weapons — those killer robots — become reality.

“The idea that this stuff could actually get smarter than people — a few people believed that,” he said. “But most people thought it was way off. And I thought it was way off. I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that.”

Many other experts, including many of his students and colleagues, say this threat is hypothetical. But Dr. Hinton believes that the race between Google and Microsoft and others will escalate into a global race that will not stop without some sort of global regulation.

But that may be impossible, he said. Unlike with nuclear weapons, he said, there is no way of knowing whether companies or countries are working on the technology in secret. The best hope is for the world’s leading scientists to collaborate on ways of controlling the technology. “I don’t think they should scale this up more until they have understood whether they can control it,” he said.

Dr. Hinton said that when people used to ask him how he could work on technology that was potentially dangerous, he would paraphrase Robert Oppenheimer, who led the U.S. effort to build the atomic bomb: “When you see something that is technically sweet, you go ahead and do it.”

He does not say that anymore.

Re:Chat GPT
« Risposta #32 il: 01 Mag 2023, 21:32 »
C’è un certo panico nel tuo settore, sono in tanti a temere di perdere il lavoro

Qualcuno ha detto "non temo che l'AI mi rubi il lavoro, temo che lo faccia qualcuno che usa l'AI"

È uno strumento e come tale va usato, con raziocinio e in modo critico altrimenti sarà un altro modo per incasinare di più questo mondo già incasinato.

Offline trax_2400

*****
17780
Re:Chat GPT
« Risposta #33 il: 01 Mag 2023, 21:36 »

Offline zorba

*****
10220
Re:Chat GPT
« Risposta #34 il: 18 Mag 2023, 19:20 »


Next step: Roma o Corropoli?!?

 :=)) :=)) :=))

 :asrm

Offline mr_steed

*
6297
Re:Chat GPT
« Risposta #35 il: 28 Mag 2023, 23:03 »
Luci e ombre della AI

Un nuovo possibile antibiotico scoperto dall’intelligenza artificiale in due ore: la svolta dei ricercatori Usa che apre nuovi scenari
https://www.open.online/2023/05/28/intelligenza-artificiale-antibiotico-mit-boston-harvard-universita-canada/

I periti delle Rc auto contro l’intelligenza artificiale, l’allarme sulle tariffe: «Perché si rischiano i rincari sulle assicurazioni»
https://www.open.online/2023/05/28/aiped-periti-rc-auto-vs-intelligenza-artificiale-rincari/

Offline mr_steed

*
6297
Re:Chat GPT
« Risposta #36 il: 31 Mag 2023, 00:25 »
«Rischio estinzione con l’intelligenza artificiale come con una pandemia o una guerra nucleare», l’avvertimento dei pionieri dell’AI

https://www.open.online/2023/05/30/intelligenza-artificiale-appello-rischi-altman-open-ai-assabis-google/

Offline pandev66

*
1170
Re:Chat GPT
« Risposta #37 il: 31 Mag 2023, 09:53 »
https://www.dagospia.com/rubrica-29/cronache/quando-rsquo-intelligenza-artificiale-incontra-deficiente-reale-ndash-354987.htm

Estratto dell’articolo di Massimo Gaggi per il “Corriere della Sera”

Trent’anni di onesta carriera forense rovinati da un uso a dir poco maldestro della tecnologia di ChatGPT per argomentare un ricorso al tribunale di Manhattan di Roberto Mata, un passeggero di un volo Avianca che accusa l’aviolinea colombiana: ferito a un ginocchio da un carrello delle vivande durante un viaggio da El Salvador a New York.

Alla compagnia che ha chiesto l’archiviazione contestando anche la scadenza dei termini (il caso è del 2019), l’avvocato di Mata, Steven Schwartz, ha replicato seppellendo l’Avianca sotto una marea di precedenti — dal caso Martinez contro Delta Airlines a quello Zicherman contro Korean Air — nei quali le corti hanno dato ragione ai passeggeri respingendo le obiezioni delle aviolinee.

Non avendo trovato riscontro dei casi citati, e incalzato dai legali dell’Avianca, il giudice Kevin Castel ha chiesto a Schwartz gli estremi dei casi. L’avvocato, che si era ciecamente affidato a ChatGPT per istruire il caso, ha interrogato di nuovo l’intelligenza artificiale che gli ha fornito le date dei procedimenti, ha indicato i tribunali che si sono pronunciati, ha fornito perfino il numero delle sentenze.

Anche così, però, il giudice non trovava nulla. Davanti alla richiesta di esibire il testo integrale degli atti citati, ChatGPT ha finalmente ammesso di aver inventato. Si è anche detta sinceramente dispiaciuta per il disturbo arrecato.

Sette casi, tutti inventati di sana pianta. A quel punto il povero Steven ha dovuto ammettere di essersi affidato totalmente a ChatGPT. Non l’aveva mai usato prima e non sapeva che soffre di quelle che i tecnici chiamano «allucinazioni»: termine suggestivo ma fuorviante perché gli dà una connotazione umana. In realtà si tratta semplicemente di risposte casualmente false, inventate, che l’intelligenza artificiale (AI) mescola alle informazioni fondate che fornisce.


In breve, su alcune cose Chat GPT potrebbe aiutare, ma è PERICOLOSAMENTE INAFFIDABILE: non ammette di non sapere, risponde sempre sicura, ma "con qualsiasi cosa gli passi per la RAM"...

Offline mr_steed

*
6297
Re:Chat GPT
« Risposta #38 il: 02 Giu 2023, 19:23 »
Riportare in vita le vittime di crimini efferati grazie all’Intelligenza Artificiale: l’ultimo inquietante trend su TikTok – Il video

https://www.open.online/2023/06/01/video-virtuale-tiktok-vittime-crimini-efferati-video/

Offline cartesio

*****
22076
Re:Chat GPT
« Risposta #39 il: 11 Giu 2023, 19:44 »
 

Powered by SMFPacks Alerts Pro Mod