Hoved virksomhet Kan ChatGPT virkelig tenke som et menneske? Spørsmål og svar med A.I. Forsker Dave Ferrucci

Kan ChatGPT virkelig tenke som et menneske? Spørsmål og svar med A.I. Forsker Dave Ferrucci

Hvilken Film Å Se?
 
  David Ferrucci
David Ferrucci, administrerende direktør og sjefforsker i Elemental Cognition. Med tillatelse av David Ferrucci

Kunstig intelligens blir raskt smart. Teknologiens nylige gjennombrudd, som manifesterer seg i de imponerende egenskapene til applikasjoner som ChatGPT, har utløst frykt for at A.I. kan snart ta over menneskeheten – og ikke på en god måte. I fjor hevdet en Google-ingeniør selskapets A.I. chatbot LaMDA var så intelligent at den hadde blitt «følende». I år, skremt av den potensielle faren for A.I., en gruppe på mer enn 1000 teknologiske gründere og akademikere, inkludert Elon Musk, i mars oppfordret til en seks måneders pause i opplæringen A.I. systemer mer avansert enn OpenAIs GPT-4, den nyeste språkmodellen som driver ChatGPT.



Selv om applikasjoner for store språkmodeller (LLM), som ChatGPT og Googles Bard, har vist potensialet til å utkonkurrere mennesker i mange oppgaver og erstatte jobber, er de på ingen måte det samme som den menneskelige hjernen fordi de underliggende læringsmekanismene er forskjellige, David Ferrucci, en informatiker og tidlig pioner innen kommersiell A.I. søknad, fortalte Observer.








Ferrucci er best kjent som skaperen av IBM Watson. Utviklet på slutten av 2000-tallet for å svare på spørsmål om TV-quizprogrammet Fare! , slo datasystemet til slutt menneskelige deltakere i spillet i 2011.



'Når Fare! utfordringen ble foreslått tidlig i 2007, jeg var den eneste i IBM Research, selv i det akademiske miljøet, som trodde det kunne gjøres og i utgangspunktet meldte meg på for å forfølge det, sa Ferrucci til Observer i et intervju.

I kjernen er IBM Watson et maskinlæringsbasert system som lærte å svare Fare! spørsmål ved å fordøye store mengder data fra tidligere show. Den kom ut på et tidspunkt da dyp læring, en undergruppe av kunstig intelligens, begynte å ta tak. Før det var datasystemer sterkt avhengig av menneskelig programmering og tilsyn.






I 2012, kort tid etter Watsons storsuksess, forlot Ferrucci IBM etter 18 år for å lede A.I. forskning for Bridgewater Associates , verdens største hedgefond. I det meste av det siste tiåret har Ferruccis arbeid fokusert på å utvikle hybrid A.I., som søker å kombinere datadrevet maskinlæring med logisk resonnement – ​​med andre ord å trene algoritmer til å 'tenke' mer som mennesker.



I 2015 finansierte Bridgewater et internt prosjekt ledet av Ferrucci som til slutt ble utvunnet som et uavhengig selskap kalt Elementær erkjennelse . Elemental Cognitions hybrid A.I. applikasjoner kan brukes i investeringsstyring, logistikkplanlegging og legemiddeloppdagelse, ifølge nettstedet. I februar signerte oppstarten Bridgewater som kunde.

I et intervju med Observer tidligere denne måneden diskuterte Ferruci de forskjellige læringsprosessene til ChatGPT og den menneskelige hjernen, nødvendigheten av hybrid A.I., og hvorfor han mener forslaget om en seks måneders A.I. pause er mer symbolsk enn praktisk.

Følgende utskrift er redigert for klarhet.

Hva er egentlig hybrid A.I.?

Hybrid AI kombinerer en datadrevet, induktiv prosess med en logikkdrevet prosess. Maskinlæring er en datadrevet prosess. Det vil bare bli bedre med mer og mer tilgjengelig treningsdata. Men for å kommunisere med mennesker trenger du også logikk og resonnement.

Menneskelig erkjennelse fungerer på samme måte, som forklart i Daniel Kahnemans bok Tenker, raskt og sakte. Den menneskelige hjernen fungerer ved å tenke raskt og sakte på samme tid. For å oppnå presis, pålitelig beslutningstaking trenger du det beste fra begge verdener.

Hvordan er rask tenkning annerledes enn sakte tenkning? Hvorfor trenger vi begge deler?

Rask tenkning er når vi ekstrapolerer fra vår erfaring, eller data, og deretter generaliserer. Generalisering kan imidlertid være feil, fordi den er basert på overfladiske trekk som kan korrelere i dataene, men som egentlig ikke er årsakssammenheng - dette er grunnlaget for fordomsfull tenkning.

Sakte tenkning er å formulere en modell for hvordan jeg tror ting fungerer: Hva er mine verdier? Hva er mine antakelser? Hva er mine slutningsregler? Og hva er min logikk for å trekke en konklusjon?

Når vi snakker om A.I. i dag har vi en tendens til automatisk å tenke på maskinlæring, som, som du sa, er en datadrevet prosess. Finnes det noen eksempler fra den virkelige verden på rent logisk drevet A.I.?

Ja, logikkdrevet A.I. har blitt assimilert i mange virkelige applikasjoner. Formelle representasjoner av problemløsningslogikk, som regelbaserte systemer eller systemer for løsning av begrensninger og optimalisering, brukes til ressursstyring, planlegging, planlegging, kontroll og utførelsesapplikasjoner.

Men vi tenker ikke på dem som A.I. lenger, hovedsakelig fordi, med big data og maskinlæringsrevolusjonen, A.I. ble sterkt assosiert med maskinlæringssystemer.

Hvor står LLM-er som GPT og LaMDA på det raske/sakte tenkningsspekteret? Er de virkelig nær menneskelig intelligens, slik en Google-ingeniør hevdet i fjor?

LLM-er produserer store datastrukturer som fanger opp de statistiske sannsynlighetene for visse sekvenser av ord etter andre sekvenser av ord. Det ChatGPT gjør er statistiske spådommer basert på språkets overfladiske trekk. Med nok treningsdata og virkelig kraftige maskinlæringsteknikker kan disse modellene etterligne et flytende språk.

Det er ikke logisk resonnement. Det er vanskelig å argumentere for at en stor tabell for sannsynligheter er sansende. Jeg vil si ikke. En interessant ting med menneskelig erkjennelse er imidlertid at vi blander sammenhengende tekst med fakta. Vi er liksom, det høres veldig bra ut, det må være sant. Men sannhet krever dypere forståelse og analyse utover språkets overfladiske trekk.

Er du nervøs for A.I. til slutt overliste mennesker?

A.I. kan utføre visse oppgaver bedre enn mennesker. Det har vært sant i årevis. I dag, ettersom data og treningsteknikker forbedres, er det enklere og enklere å trene A.I. systemer for å gjøre flere menneskelige oppgaver. Jeg tror det er veldig viktig. Men jeg tror ikke A.I. kommer til å ta over. Det er ingen uavhengig enhet som ønsker å erobre deg. Imidlertid har A.I. lett kan misbrukes. Jeg tror det er en reell bekymring.

Elemental Cognition signerte nylig Bridgewater som en klient, som også er en tidlig investor i selskapet ditt. Hvordan kan hybrid A.I. hjelpe investeringsforvaltere bedre å forstå økonomien og markedene?

Å forstå økonomien kommer i to former: identifisere mønstre i data og tolke disse mønstrene for å forstå hva som skjer.

valentinsdag feriepakker 2019

I investeringsforvaltning er det endelige målet å gi nøyaktige spådommer ved å se på økonomiske indikatorer, som renter og aksjekurser. Data har mye å fortelle deg. Hvis du kunne se mønstre i dataene, er det veldig kraftig. Og hvis du kan tolke mønstrene og gi mening om hva som skjer i økonomien, så har du et annet perspektiv. Det er nesten som du kan gjøre kontroller og balanser: her er korrelasjonene vist i dataene, og her er min forståelse av hvordan ting fungerer. Er de enige eller ikke?

Hva synes du om forslaget om å sette A.I. trene i seks måneder?

Jeg tror ikke det er praktisk å begynne med, fordi store språkmodeller ikke er en hemmelighet. Det vil alltid være selskaper som jobber med dem. Vi kommer til å fortsette å se mange eksperimenter. Jeg tror ikke det er fornuftig å stoppe eksperimentet.

Men jeg tror det er fornuftig å ta et skritt tilbake og tenke hardt på dette. Politikere må begynne å tenke på hvordan de skal regulere A.I. fordi det kan misbrukes på en rekke måter. Vi vil sannsynligvis se regulering utvikles og anvendes.

Artikler Du Måtte Like :