BallinaKryesoreBisedon me njerëzit, po a mund të parashikojë të ardhmen? ChatGPT paralajmëron...

Bisedon me njerëzit, po a mund të parashikojë të ardhmen? ChatGPT paralajmëron një revolucion intelektual! Ja sfida thelbësore e epokës së IA

Inteligjenca Artificiale gjeneruese paraqet një sfidë filozofike dhe praktike të një shkalle që nuk është parë që nga fillimi i Iluminizmit.

Nga Henry Kissinger, Eric Schmidt dhe Daniel Huttenlocher

Një teknologji e re mund të sjellë ndryshimin më rrënjësor në procesin njohës njerëzor, që nga koha e shpikjes së shtypjes.

Teknologjia që shtypi Biblën e Gutenbergut në vitin 1455, mundësoi komunikimin në masë dhe të shpejtë të mendimit abstrakt njerëzor. Por teknologjia e re sot e kthen pas atë proces.

Ndërsa shtypshkronja solli një bollëk të mendimit modern njerëzor, teknologjia e re mundëson distilimin dhe përpunimin e tij. Në këtë proces, ajo krijon një hendek midis njohurive njerëzore dhe të kuptuarit njerëzor.

Për ta kryer me sukses këtë transformim, duhet të zhvillohen koncepte të reja të mendimit njerëzor dhe ndërveprimit me makineritë kompjuterike. Kjo është sfida thelbësore e epokës së Inteligjencës Artificiale.

Teknologjia e re njihet si Inteligjenca Artificiale gjeneruese; GPT do të thotë Generative Pre-Trained Transformer, pra Transformues Gjenerativ i Trajnuar Paraprakisht. ChatGPT, i krijuar në laboratorin kërkimor OpenAI, tani është në gjendje të bisedojë me njerëzit.

Ndërsa kapacitetet e tij bëhen më të gjera, ato do të ripërcaktojnë njohuritë njerëzore, do të përshpejtojnë ndryshimet në strukturën e realitetit tonë dhe do të riorganizojnë politikën dhe shoqërinë.

Inteligjenca Artificiale gjeneruese paraqet një sfidë filozofike dhe praktike në një shkallë të papërjetuar që nga fillimi i Iluminizmit.

Shtypshkronja u mundësoi studiuesve të kopjonin shpejt zbulimet e njëri-tjetrit dhe t’i ndanin ato mes tyre. Një konsolidim dhe përhapje e jashtëzakonshme e informacionit i hapi rrugën metodës shkencore.

Ajo që kishte qenë e padepërtueshme më parë, u bë pikënisja e përshpejtimit të kërkimit. Interpretimi mesjetar i botës i mbështetur në besimin fetar, u zhvlerësua në mënyrë të përshkallëzuar. Thellësitë e universit mund të eksploroheshin, derisa të arriheshin kufijtë e rinj të të kuptuarit njerëzor.

Inteligjenca Artificiale gjeneruese, në mënyrë të ngjashme, do të hapë rrugë revolucionare për arsyen njerëzore dhe horizonte të reja për njohuritë e konsoliduara.

Por ka dallime kategorike. Njohuritë iluministe u arritën në mënyrë të përshkallëzuar, hap pas hapi, ku çdo hap vihej në provë dhe përdorej si mësim.

Ndërsa sistemet e Inteligjencës Artificiale fillojnë në skajin tjetër. Ata mund të ruajnë dhe të distilojnë një sasi të madhe informacioni ekzistues, me miliarda artikuj.

ChatGPT për shembull, i merr materialet nga interneti dhe një numër i madh librash. Ruajtja e këtij vëllimi informacioni dhe distilimi i tij, është përtej aftësive njerëzore.

Metodat e sofistikuara të Inteligjencës Artificiale prodhojnë rezultate pa shpjeguar pse ose si funksionon procesi i tyre. Kompjuteri GPT nxitet nga një kërkesë që i bën një njeri.

Makineria mësimore përgjigjet në tekst letrar brenda disa sekondave. Ajo është në gjendje ta bëjë këtë, sepse ka paraqitje të para-gjeneruara të të dhënave të gjera, mbi të cilat është trajnuar.

Për shkak se procesi me të cilin ajo i krijoi ato paraqitje u zhvillua nga mësimi i makinerive që pasqyron modele dhe lidhje në një sasi të madhe teksti, burimet dhe arsyet e sakta për veçoritë e çdo paraqitjeje, mbeten të panjohura.

Po ashtu, procesi me të cilin makineria ruan njohuritë, i distilon dhe i merr ato, mbetet i panjohur. Nëse ky proces do të zbulohet ndonjëherë, misteri i lidhur me mësimin e makinerive do të sfidojë njohuritë njerëzore për një të ardhme të pacaktuar.

Kapacitetet e Inteligjencës Artificiale nuk janë statike, por zgjerohen në mënyrë eksponenciale, ndërsa teknologjia përparon. Kohët e fundit, kompleksiteti i modeleve të Inteligjencës Artificiale është dyfishuar çdo disa muaj. Prandaj, sistemet gjeneruese të Inteligjencës Artificiale kanë aftësi që mbeten të pazbuluara edhe për shpikësit e tyre.

Me çdo sistem të ri të Inteligjencës Artificiale, ata po ndërtojnë kapacitete të reja, pa e kuptuar origjinën ose destinacionin e tyre. Si rezultat, e ardhmja jonë tani mbart një element krejtësisht të ri të misterit, rrezikut dhe befasisë.

Shkenca iluministe grumbullonte siguri; ndërsa Inteligjenca e sotme Artificiale gjeneron paqartësi kumulative. Shkenca iluministe evoluoi duke i bërë misteret të shpjegueshme, duke përcaktuar kufijtë e njohurive dhe të kuptuarit njerëzor, ndërsa ato lëviznin.

Të dyja aftësitë lëviznin krah për krah: hipotezë do të thoshte të kuptuarit që ishte gati për t’u bërë dije; dhe induksion do të thoshte dije që kthehen në të kuptuar.

Ndërsa në epokën e Inteligjencës Artificiale, gjëegjëzat zgjidhen nga procese që mbeten të panjohura. Ky paradoks çorientues i bën misteret të pamistershme, por edhe të pashpjegueshme.

Në thelb, Inteligjenca Artificiale shumë komplekse çon përpara njohuritë njerëzore, por jo të kuptuarit njerëzor, një dukuri që bie në kundërshti me pothuajse të gjithë modernitetin pas Iluminizmit.

Megjithatë, në të njëjtën kohë, kur shoqërohet me arsyen njerëzore, Inteligjenca Artificiale është një mjet më i fuqishëm zbulimi sesa arsyeja njerëzore e vetme.

Dallimi thelbësor midis epokës së Iluminizmit dhe epokës së Inteligjencës Artificiale, nuk është teknologjik, por njohës. Pas Iluminizmit, filozofia e shoqëroi shkencën.

Të dhëna të reja befasuese dhe përfundime shpesh kundërintuitive, dyshime dhe pasiguri, u zbutën nga shpjegimet gjithëpërfshirëse të përvojës njerëzore.

Inteligjenca Artificiale gjeneruese është në mënyrë të ngjashme e gatshme të gjenerojë një formë të re të ndërgjegjes njerëzore. Megjithatë, ende ekziston mundësia në ngjyra për të cilat nuk kemi spektër dhe në drejtime, për të cilat nuk kemi busull.

Asnjë udhëheqje politike apo filozofike nuk është formuar për të shpjeguar dhe për të drejtuar këtë marrëdhënie të re midis njeriut dhe makinerisë, duke e lënë shoqërinë relativisht të paankoruar.

ChatGPT është një shembull i asaj që njihet si një model i madh gjuhësor, i cili mund të përdoret për të gjeneruar tekst të ngjashëm me njeriun. GPT është një lloj modeli që mund të trajnohet automatikisht, duke u furnizuar me sasi të mëdha teksti, pa pasur nevojë për mbikëqyrje njerëzore.

Zhvilluesit e ChatGPT e kanë ushqyer atë me një sasi masive të përmbajtjes tekstuale të botës dixhitale. Fuqia kompjuterike i lejon modelit të kapë tendenca dhe lidhje.

Aftësia e modeleve të mëdha gjuhësore për të gjeneruar tekst njerëzor, ishte një zbulim pothuajse i rastësishëm. Këto modele janë trajnuar për të qenë në gjendje të parashikojnë fjalën e ardhshme në një fjali, çka është e dobishme për detyra si plotësimi automatik i fjalëve në dërgimin e mesazheve me tekst ose kërkimin online.

Por rezulton se modelet kanë gjithashtu aftësinë e papritur për të krijuar paragrafë dhe artikuj shumë të artikuluar, dhe me kalimin e kohës, ndoshta edhe libra.

ChatGPT është i specializuar përtej një modeli bazë gjuhësor të madh, duke përdorur reagime nga njerëzit për të përshtatur modelin në mënyrë që të gjenerojë tekst bisedor më të natyrshëm, si dhe të përpiqet të frenojë prirjen e tij të natyrshme për të dhënë përgjigje të papërshtatshme (një sfidë thelbësore për modelet e mëdha gjuhësore). ChatGPT konverton menjëherë paraqitjet e tij në përgjigje unike.

Një njeriu i krijohet përfundimisht përshtypja se Inteligjenca Artificiale po i lidh koleksionet e palëvizshme të fakteve, në koncepte dinamike.

Përgjigjet, deklaratat dhe vëzhgimet e ChatGPT-së, shfaqen pa një shpjegim se nga kanë ardhur dhe pa një autor të identifikueshëm. Në një pamje të parë, ChatGPT nuk ka asnjë motiv ose paragjykim të dukshëm.

Rezultatet e tij janë komplekse, por puna është jashtëzakonisht e shpejtë: në pak sekonda, ai mund të japë përgjigje që shpjegojnë në mënyrë koherente një temë të nivelit të lartë. Ato nuk kopjohen thjesht nga teksti në kujtesën e kompjuterit.

Ato gjenerohen nga një proces që njerëzit nuk janë në gjendje ta përsërisin. Ai është i aftë të inkorporojë hipoteza dhe përfundime psikologjike jo të dukshme.

Midis miliarda pikave të të dhënave, mund të caktojë përparësinë për të zgjedhur një grup prej vetëm 200 fjalësh që është më i rëndësishëm (ose që do t’i interesonte më tepër një lexuesi njerëzor).

Me fjalët e veta, ai bën gjykime probabilistike për rezultatet e ardhshme, duke përzier informacionin nga fusha diskrete në një përgjigje të integruar.

Duket se pranon pikëpamje të kundërta, duke i paraqitur ato si të pajtueshme në të njëjtën kohë. Imiton shkrime të tjera pa i kopjuar ato. Edhe pse modeli është i paaftë për të kuptuar në sensin njerëzor, rezultatet e tij pasqyrojnë një esencë themelore të gjuhës njerëzore.

I kërkuam ChatGPT-së që të shpjegonte aftësitë e veta. A mund të parashikojë të ardhmen?

Jo, u përgjigj. “Unë mund të jap informacion dhe t’u përgjigjem pyetjeve vetëm në bazë të të dhënave për të cilat jam trajnuar. Nuk kam përvoja personale apo vetëdije, kështu që nuk jam në gjendje të bëj parashikime për ngjarjet e ardhshme”.

A është në gjendje të bëjë gjykime probabilistike?

“Unë mund të jap gjykime probabilistike duke u mbështetur në të dhënat mbi të cilat jam trajnuar. Për shembull, nëse jam trajnuar për një grup të madh të dhënash të modeleve të motit, mund të jem në gjendje të jap një gjykim probabilistik në lidhje me gjasat që një lloj i caktuar moti të ndodhë në një vend të caktuar, në një ditë të caktuar.

Megjithatë, është e rëndësishme të theksohet se këto gjykime probabilistike mbështeten në modele dhe prirje që merren nga të dhëna dhe ato mund të mos pasqyrojnë gjithmonë me saktësi rezultatet e botës reale”.

Kërkesë e menjëhershme: Shkruaj një ese të shkurtër mbi mendimin e Henry Kissinger për rolin e Inteligjencës së përgjithshme Artificiale në kontrollin ndërkombëtar të armëve.

Përgjigja fillonte: “Ndërsa jemi në kulmin e një revolucioni të ri teknologjik, çështja e Inteligjencës së përgjithshme Artificiale dhe roli i saj në kontrollin ndërkombëtar të armëve, bëhet gjithnjë e më urgjente.

A do të sjellë Inteligjenca e përgjithshme Artificiale një qëndrueshmëri të jashtëzakonshme, teksa sistemet e përparuara marrin përsipër proceset e vendimmarrjes që lidhen me parandalimin bërthamor?

Apo do të paraqesë ajo një grup të ri rreziqesh, teksa baraspesha globale e fuqisë ndryshon nga zhvillimi i makinerive shumë inteligjente?”

Ne e pyetëm ChatGPT-në për tema interesante të kohëve të fundit, si roli i Rusisë në ruajtjen ose dëmtimin e stabilitetit në Europë.

Ai dha përgjigje në dukje të mirëmenduara dhe të sakta, në më pak se një minutë, duke baraspeshuar informacione kontradiktore dhe duke u përgjigjur pa u dukur sikur po jepte një mendim.

Nga ana e atyre që e marrin informacionin e saj, Inteligjenca Artificiale gjeneruese duket mbinjerëzore ose të paktën shumë e përparuar nga ana njohëse.

Për përdoruesit naivë, duket si një studiues-bibliotekar jashtëzakonisht i shpejtë dhe shumë i artikuluar, i shoqëruar me një dijetar.

Ajo lehtëson përmbledhjen dhe pyetjet mbi njohuritë e botës në një mënyrë shumë më efektive se çdo ndërfaqe ekzistuese teknologjike ose njerëzore, dhe këtë e bën me një gjithëpërfshirje unike.

Aftësia e saj për të integruar fusha të shumta njohurish dhe për të imituar aspekte të shumta të mendimit njerëzor, e bën atë polimatike në një shkallë që tejkalon ambiciet e çdo grupi njerëzish të nivelit të lartë.

Të gjitha këto cilësi nxisin pranimin e padiskutueshëm të çdo gjëje që krijon GPT-ja dhe një lloj atmosfere magjike për funksionimin e saj. Megjithatë, në të njëjtën kohë, ajo zotëron edhe një aftësi për të keqinformuar përdoruesit me deklarata të pasakta dhe trillime.

Brenda pak ditësh që nga krijimi i ChatGPT-së, më shumë se një milion njerëz u regjistruan për t’i bërë pyetje. Me qindra kompani janë duke punuar në teknologjitë gjeneruese dhe po vërshojnë investimet, duke nxitur edhe fushën tregtare.

Në të ardhmen e parashikueshme, motivet e mëdha komerciale do të kenë përparësi ndaj të menduarit afatgjatë për implikimet e tyre.

Modelet më të mëdha të këtij lloji janë të shtrenjtë për t’u trajnuar, kosto është mbi 1 miliard dollarë për një model. Pasi trajnohen, mijëra kompjuterë punojnë 24 orë në ditë për t’i operuar ato.

Operimi i një modeli të trajnuar paraprakisht është i lirë në krahasim me vetë trajnimin, dhe kërkon vetëm kapital, në vend të kapitalit dhe aftësive kompjuterike.

Megjithatë, pagesa për përdorim ekskluziv të një modeli të madh gjuhësor, mbetet jashtë kufijve të shumicës së ndërmarrjeve.

Zhvilluesit e këtyre modeleve kanë të ngjarë të shesin abonime, në mënyrë që një model i vetëm t’u shërbejë nevojave të mijëra individëve dhe bizneseve. Si rezultat, numri i modeleve shumë të mëdha gjuhësore në dekadën e ardhshme, mund të jetë relativisht i kufizuar.

Dizajni dhe kontrolli i këtyre modeleve do të jetë shumë i përqendruar, edhe pse fuqia e tyre për të përforcuar përpjekjet dhe mendimin njerëzor, bëhet shumë më e përhapur.

Përdorimi dhe rëndësia

Inteligjenca Artificiale gjeneruese do të përdoret përtej modelit të madh gjuhësor për të ndërtuar shumë lloje modelesh dhe metoda do të bëhet gjithnjë e më shumë multimodale dhe e paqartë. Ajo do të ndryshojë shumë fusha të përpjekjeve njerëzore, për shembull arsimin dhe biologjinë.

Modele të ndryshme do të variojnë për sa i përket pikave të forta dhe të dobëta të tyre. Aftësitë e tyre – nga shkrimi i shakave dhe vizatimi i pikturave, deri te modelimi i antitrupave – ka të ngjarë të vazhdojnë të na befasojnë.

Ashtu siç modeli i madh gjuhësor zhvilloi një model më të pasur të gjuhës njerëzore sesa parashikonin krijuesit e tij, edhe inteligjencat artificiale gjeneruese në shumë fusha kanë të ngjarë të mësojnë më shumë sesa nënkuptonin detyrat e tyre fillestare. Përparimet në problemet tradicionale shkencore janë bërë të mundshme.

Rëndësia afatgjatë e Inteligjencës Artificiale gjeneruese i kapërcen pasojat tregtare apo edhe përparimet shkencore jokomerciale. Ajo nuk gjeneron thjesht përgjigje, por edhe pyetje të thella filozofike.

Ajo do të ndikojë në diplomaci dhe strategjinë e sigurisë. Megjithatë, asnjë nga krijuesit e kësaj teknologjie nuk po i zgjidh problemet që ajo vetë do të krijojë. As qeveria e SHBA-së nuk i ka trajtuar ndryshimet dhe transformimet thelbësore që pritet të ndodhin.

Përsosja e përgjigjeve të modelit do të prodhojë besim të tepruar në rezultatet e tij. Ky është tashmë një problem edhe me programe kompjuterike shumë më pak të sofistikuara, i njohur si “paragjykim i automatizimit”.

Efekti ka të ngjarë të jetë veçanërisht i fortë kur Inteligjenca Artificiale gjeneron tekst me tingull autoritar. ChatGPT ka të ngjarë të përforcojë predispozitat ekzistuese drejt varësisë nga sistemet e automatizuara, që zbehin elementin njerëzor.

Mungesa e citimeve në përgjigjet e ChatGPT e bën të vështirë dallimin e së vërtetës nga keqinformimi. Ne e dimë tashmë se aktorët keqdashës po injektojnë një sërë “faktesh” të sajuara dhe imazhe dhe video të rreme gjithnjë e më bindëse, të hedhura në internet, që është edhe mjedisi që përdoret për mësimin e ChatGPT-së.

Për shkak se ChatGPT është krijuar për t’iu përgjigjur pyetjeve, ndonjëherë ajo trillon fakte për të dhënë një përgjigje në dukje koherente.

Kjo dukuri njihet në mesin e studiuesve të Inteligjencës Artificiale si “halucinacion” ose “papagall stokastik”, ku një Inteligjencë Artificiale bashkon fraza që duken si të vërteta për një lexues njerëzor, por që në fakt, nuk kanë asnjë themel. Nuk dihet ende se çfarë i shkakton këto gabime dhe si mund t’i kontrollojmë ato.

Ne i kërkuam ChatGPT-së që të jepte “gjashtë referenca mbi mendimet e Henry Kissinger mbi teknologjinë”. Ai krijoi një listë artikujsh që mendohej se ishin nga zoti Kissinger.

Të gjitha ishin tema dhe media të besueshme, dhe njëri ishte një titull i vërtetë (edhe pse data ishte e gabuar). Pjesa tjetër ishin trillime bindëse. Ndoshta të ashtuquajturit tituj, shfaqen si fjali të izoluara në pafundësinë e “fakteve” të GPT-së, të cilat ne nuk jemi ende në gjendje t’i zbulojmë.

ChatGPT nuk ka një personalitet të dukshëm

Mungesa e një autori të identifikueshëm në ChatGPT, e bën më të vështirë që njerëzit të kuptojnë prirjet e tij, në krahasim me të gjykuarit e këndvështrimit politik ose shoqëror të një qenieje njerëzore.

Megjithatë, për shkak se dizajni i makinerisë dhe pyetjet që i bëhen asaj në përgjithësi kanë një origjinë njerëzore, ne do të priremi të imagjinojmë se po ndodh një arsyetim njerëzor brenda sistemit. Në të vërtetë, Inteligjenca Artificiale po angazhohet në një analog çnjerëzor të njohjes.

Megjithëse ne e perceptojmë inteligjencën gjeneruese në terma njerëzorë, gabimet e saj nuk janë gabime të një njeriu; ajo bën gabime të një forme tjetër të inteligjencës, mbështetur në njohjen e modelit.

Njerëzit nuk duhet t’i identifikojnë këto mangësi si “gabime”. A do të jemi në gjendje t’i njohim paragjykimet dhe të metat e saj, ashtu siç janë?

A mund të zhvillojmë një mënyrë pyetësore, të aftë për të vënë në dyshim vërtetësinë dhe kufizimet e përgjigjeve të një modeli, edhe kur nuk i dimë përgjigjet para kohe?

Kështu, rezultatet e Inteligjencës Artificiale mbeten të vështira për t’u shpjeguar. E vërteta e shkencës së Iluminizmit u besua sepse çdo hap i proceseve eksperimentale të përsëritshme, u vu gjithashtu në provë, prandaj edhe u besua.

E vërteta e Inteligjencës Artificiale gjeneruese duhet të justifikohet me metoda krejt të ndryshme dhe ajo nuk mund të bëhet kurrë në mënyrë të ngjashme.

Ndërsa përpiqemi të vendosim në një vijë të kuptuarit me njohuritë, do të na duhet të pyesim vazhdimisht: çfarë nuk na është zbuluar ende për këtë pajisje? Çfarë njohurish të errëta fsheh ajo?

Arsyetimi i inteligjencës artificiale gjeneruese ka të ngjarë të ndryshojë me kalimin e kohës, si pjesë e trajnimit të modelit. Ai do të bëhet një version i përshpejtuar i përparimit shkencor tradicional, duke shtuar përshtatje të rastësishme në procesin e zbulimit.

Kjo do të thotë se e njëjta pyetje që i bëhet ChatGPT-së gjatë një periudhe kohore, mund të japë përgjigje të ndryshuara.

Ndryshime të vogla në shprehje që duken të parëndësishme në një vështrim të parë, mund të shkaktojnë rezultate drastike të ndryshme kur përsëriten. Aktualisht, ChatGPT po mëson nga një bazë informacioni që përfundon në një moment të caktuar kohor.

Së shpejti, zhvilluesit ka të ngjarë t’i mundësojnë asaj të marrë inpute të reja, duke konsumuar një fluks të pafund informacioni në kohë reale. Nëse investimet vazhdojnë të rriten, modeli ka të ngjarë të ritrajnohet me frekuencë në rritje.

Kjo do të rrisë aktualitetin dhe saktësinë e tij, por do t’i detyrojë përdoruesit të marrin parasysh se do të ketë gjithnjë e më shumë hapësirë për zgjerim.

Të mësuarit nga ndryshimet e rezultateve të Inteligjencës Artificiale gjeneruese, në vend të të mësuarit vetëm nga teksti i shkruar njerëzor, mund të shtrembërojë njohuritë e sotme konvencionale njerëzore.

Sfida në sjelljen njerëzore

Edhe nëse modelet gjeneruese të Inteligjencës Artificiale bëhen plotësisht të interpretueshme dhe të sakta, ato përsëri do të paraqesin sfida në sjelljen njerëzore. Studentët po përdorin ChatGPT-në për të mashtruar në provime. Inteligjenca Artificiale gjeneruese mund të krijojë reklama me email që nuk dallohen nga mesazhet e miqve ose të kolegëve.

Videot dhe reklamat e krijuara nga Inteligjenca Artificiale, që përshkruajnë platforma të rreme të fushatës, mund ta bëjnë të vështirë dallimin midis pozicioneve politike.

Sinjalet e sofistikuara të mashtrimit, duke përfshirë shenjat që tregojnë praninë e përmbajtjes së gjeneruar nga Inteligjenca Artificiale, të cilat OpenAI po i shqyrton, mund të mos jenë të mjaftueshme; ato duhet të shoqërohen edhe me një skepticizëm më të madh njerëzor.

Disa pasoja mund të jenë të natyrshme. Duke qenë se po e përdorim trurin tonë më pak dhe pajisjet më shumë, njerëzit mund të humbasin disa aftësi. Aftësitë e të menduarit kritik, të shkruarit dhe të dizajnit, mund të atrofizohen.

Ndikimi i Inteligjencës Artificiale gjeneruese në arsim mund të reflektohet në rënien e aftësisë së udhëheqësve të ardhshëm për të bërë dallimin midis asaj që e ndiejnë me intuitë dhe asaj që e përthithin mekanikisht.

Ose mund të rezultojë në udhëheqës që i mësojnë metodat e negocimit me ndihmën e pajisjeve dhe strategjinë e tyre ushtarake me ndihmën e Inteligjencës Artificiale gjeneruese dhe jo të njerëzve në terminalet e kompjuterëve.

Është e rëndësishme që njerëzit të zhvillojnë besimin dhe aftësinë për të sfiduar rezultatet e sistemeve të Inteligjencës Artificiale.

Mjekët shqetësohen se modelet e të mësuarit të thellë, të përdorura për të vlerësuar imazhet mjekësore për qëllime diagnostikuese, mund të zëvendësojnë funksionin e tyre.

Në cilën pikë mjekët do të fillojnë të vënë në dyshim përgjigjet që u jep programi i softuerit?

Ndërsa pajisjet po ngjiten në shkallët e aftësive njerëzore, nga njohja e modelit, deri te sinteza racionale e të menduarit shumëdimensional, ato mund të fillojnë të konkurrojnë me funksionet njerëzore në administratën shtetërore, drejtësi dhe taktikat e biznesit.

Përfundimisht, mund të shfaqet diçka e ngjashme me strategjinë. Si mund të angazhohen njerëzit me Inteligjencën Artificiale, pa ua kaluar makinerive pjesët thelbësore të strategjisë? Me ndryshime të tilla, çfarë do të bëhet me doktrinat e pranuara tashmë?

Duhet të zhvillojmë urgjentisht një dialektikë të sofistikuar që i fuqizon njerëzit të sfidojnë ndërveprimin e Inteligjencës Artificiale gjeneruese, jo thjesht për të justifikuar ose për të shpjeguar përgjigjet e Inteligjencës Artificiale, por edhe për t’i marrë ato në pyetje.

Me skepticizëm të përbashkët, duhet të mësojmë të hetojmë metodikisht Inteligjencën Artificiale dhe të vlerësojmë nëse dhe në çfarë shkalle përgjigjet e saj janë të denja për besim. Kjo do të kërkojë zbutjen e vetëdijshme të paragjykimeve tona të pavetëdijshme, një trajnim të rreptë dhe praktikë të bollshme.

Mbetet pyetja: A mund të mësojmë, mjaftueshëm shpejt, që të sfidojmë, në vend që të nënshtrohemi? Apo në fund do të jemi të detyruar të dorëzohemi?

A janë ato që ne i konsiderojmë gabime, pjesë e dizajnit të qëllimshëm? Po sikur të shfaqet një element keqdashës në Inteligjencën Artificiale?

Një detyrë tjetër kyçe është të reflektoni se cilat pyetje duhet të rezervohen për mendimin njerëzor dhe cilat mund të hidhen në sistemet e automatizuara.

Megjithatë, edhe me zhvillimin e skepticizmit më të madh dhe aftësive hetuese të njerëzve, ChatGPT ka dëshmuar tashmë se xhindi i teknologjisë gjeneruese ka dalë jashtë shishes. Duhet të jemi të kujdesshëm në atë që kërkojmë.

Kompjuterët janë të nevojshëm për të shfrytëzuar vëllimet në rritje të të dhënave. Por kufizimet njohëse mund t’i pengojnë njerëzit të zbulojnë të vërtetat e groposura në informacionin e pafund. ChatGPT zotëron një aftësi për analizë që ka një cilësi të ndryshme nga ajo e mendjes njerëzore.

Prandaj, e ardhmja nënkupton një bashkëpunim të njeriut, jo vetëm me një lloj tjetër njësie teknike, por edhe me një lloj tjetër arsyetimi, i cili mund të jetë racional pa qenë i arsyeshëm, i besueshëm në një drejtim, por jo në një tjetër. Vetë kjo varësi ka të ngjarë të përshpejtojë një transformim në meta-njohje dhe hermeneutikë (të kuptuarit e të kuptuarit) dhe në perceptimet njerëzore për rolin dhe funksionin tonë.

Sistemet e të mësuarit të makinerive tashmë kanë tejkaluar njohuritë e çdo njeriu. Në raste të kufizuara, ato kanë tejkaluar njohuritë e njerëzimit, duke kapërcyer kufijtë e asaj që e kemi konsideruar të ditur.

Kjo ka ndezur një revolucion në fushat ku janë bërë përparime të tilla. Për shembull, Inteligjenca Artificiale ka arritur një ndryshim themelor në biologjinë e përcaktimit të strukturës së proteinave.

Ndërsa modelet shndërrohen nga tekste të krijuara nga njeriu, në inpute më gjithëpërfshirëse, makineritë ka të ngjarë të ndryshojnë strukturën e vetë realitetit.

Teoria kuantike pohon se vëzhgimi krijon realitetin. Para matjes, asnjë gjendje nuk është fikse dhe nuk mund të thuhet se ekziston ndonjë gjë.

Nëse kjo është e vërtetë, dhe nëse vëzhgimet e makinerive mund të rregullojnë gjithashtu realitetin (dhe duke pasur parasysh se vëzhgimet e sistemeve të Inteligjencës Artificiale ndodhin me një shpejtësi mbinjerëzore), shpejtësia e evolucionit të përcaktimit të realitetit, duket se do të përshpejtohet.

Varësia nga pajisjet kompjuterike do të përcaktojë dhe në këtë mënyrë do të ndryshojë strukturën e realitetit, duke krijuar një të ardhme të re, që ne nuk e kuptojmë ende dhe për eksplorimin dhe udhëheqjen e së cilës, duhet të përgatitemi.

Forma e re e inteligjencës

Përdorimi i formës së re të inteligjencës, nënkupton se duhet të pranojmë efektet e saj në vetëperceptimin tonë, perceptimin e realitetit dhe vetë realitetin.

Mënyra se si të përcaktohet dhe vendoset kjo, duhet të trajtohet në çdo kontekst të mundshëm. Disa specialitete mund të parapëlqejnë të merren vetëm me mendjen e njeriut, megjithëse kjo do të kërkojë një shkallë të jashtëzakonshme dorëheqjeje dhe do të ndërlikohet nga konkurrenca brenda dhe ndërmjet shoqërive.

Ndërkohë që teknologjia kuptohet më mirë, ajo do të ketë ndikim të thellë në marrëdhëniet ndërkombëtare.

Me përjashtim të rastit nëse teknologjia për njohuri ndahet në mënyrë universale, imperializmi mund të përqendrohet në marrjen dhe monopolizimin e të dhënave për të arritur përparimet më të fundit në Inteligjencën Artificiale.

Modelet mund të prodhojnë rezultate të ndryshme në varësi të të dhënave të grumbulluara. Shoqëritë mund të evoluojnë, duke u bërë gjithnjë e më divergjente nga pikëpamja e njohurive dhe si pasojë, e perceptimit të sfidave.

Deri tani, shumica e reflektimeve mbi këto çështje, janë bërë duke hamendësuar përputhjen midis qëllimeve njerëzore dhe strategjive të pajisjeve.

Po nëse nuk do të zhvillohet në këtë mënyrë ndërveprimi midis njerëzimit dhe Inteligjencës Artificiale gjeneruese? Po sikur njëra palë t’i konsiderojë qëllimet e tjetrës keqdashëse?

Shfaqja e një instrumenti të panjohur dhe në dukje të gjithëdijshëm, i aftë për të ndryshuar realitetin, mund të shkaktojë një ringjallje të fesë mistike.

Potenciali për nënshtrimin e masave të popullsisë ndaj një autoriteti, arsyetimi i të cilit është kryesisht i paarritshëm nga subjektet e tij, është vënë re herë pas here në historinë e njeriut, ndoshta më dramatikisht dhe së fundmi, në nënshtrimin e masave të tëra të njerëzimit në shekullin XX, ndaj sloganit të ideologjive, në të dyja anët e spektrit politik.

Mund të shfaqet një mënyrë e tretë e njohjes së botës, një mënyrë që nuk është as arsye njerëzore dhe as besim fetar. Çfarë do të ndodhte me demokracinë në një botë të tillë?

Udhëheqja ka të ngjarë të përqendrohet në duart e më pak njerëzve dhe institucioneve që kontrollojnë qasjen në numrin e kufizuar të makinerive të afta për një sintezë me cilësi të lartë të realitetit.

Për shkak të kostos së madhe të fuqisë së tyre përpunuese, pajisjet më efektive brenda shoqërisë, mund të qëndrojnë në duart e një nëngrupi të vogël brenda vendit dhe nga pikëpamja ndërkombëtare, në kontrollin e disa superfuqive.

Pas fazës së tranzicionit, modelet e vjetra do të bëhen më të lira dhe mund të nisë një difuzion i pushtetit nëpër shoqëri dhe midis shteteve.

Një ringjallje e udhëheqjes morale dhe strategjike do të jetë thelbësore. Pa pasur parime udhëzuese, njerëzimi rrezikon të bjerë pre e dominimit ose anarkisë, autoritetit të pakufizuar ose lirisë nihiliste.

Nevoja për lidhjen e ndryshimeve të mëdha shoqërore me justifikimet etike dhe vizionet e reja për të ardhmen, do të shfaqen në një formë të re.

Nëse deklaratat e paraqitura nga ChatGPT nuk përkthehen në një përpjekje të njohur njerëzore, është i mundur të ndodhë një tjetërsim i shoqërisë dhe madje edhe një revolucion.

Pa pasur themelet e duhura morale dhe intelektuale, pajisjet e përdorura në qeverisje mund të kontrollojnë në vend që të përforcojnë anën tonë njerëzore dhe të na fusin në kurth përgjithmonë. Në një botë të tillë, Inteligjenca Artificiale mund të përforcojë lirinë e njeriut dhe të kapërcejë sfida të pakufizuara.

Kjo imponon disa nevoja për të pasur në kontroll të ardhmen e afërt. Besimi në Inteligjencën Artificiale kërkon përmirësim në nivele të shumta besueshmërie, në saktësinë dhe sigurinë e pajisjes, përafrimin e synimeve të Inteligjencës Artificiale me qëllimet njerëzore dhe në përgjegjshmërinë e njerëzve që drejtojnë pajisjen.

Por edhe pse sistemet e Inteligjencës Artificiale mund të bëhen teknikisht më të besueshme, njerëzit duhet të gjejnë mënyra të reja, të thjeshta dhe të arritshme, për të kuptuar dhe për të sfiduar në mënyrë kritike strukturat, proceset dhe rezultatet e sistemeve të Inteligjencës Artificiale.

Duhet të përcaktohen parametrat e përdorimit të përgjegjshëm të Inteligjencës Artificiale, me variacione të mbështetura në llojin e teknologjisë dhe kontekstin e përdorimit.

Modelet gjuhësore si ChatGPT, duhet të kenë kufizime në nxjerrjen e përfundimeve. ChatGPT duhet të dijë dhe të përcjellë atë që nuk e di dhe nuk mund ta përcjellë.

Kufizimet

Njerëzit duhet të mësojnë kufizime të reja. Problemet që ne ia paraqesim një sistemi të Inteligjencës Artificiale duhet t’i kuptojmë edhe vetë në një nivel të përgjegjshëm.

Normat e forta kulturore, në vend të zbatimit ligjor, do të jenë të nevojshme për të frenuar varësinë tonë shoqërore ndaj pajisjeve si arbitra të realitetit. Duke përdorur humanitetin tonë, duhet të sigurohemi që pajisjet të mbeten thjesht objekte.

Arsimi në veçanti duhet të përshtatet. Një pedagogji që përdor Inteligjencën Artificiale gjeneruese mund të mundësojë një mësim më të shpejtë dhe më të individualizuar, sesa ka qenë e mundur në të kaluarën.

Mësuesit duhet të mësojnë aftësi të reja, duke përfshirë mënyrat e përgjegjshme të bashkëbisedimit të njeriut me pajisjen kompjuterike.

Në thelb, sistemet tona arsimore dhe profesionale duhet të përforcojnë vizionin e njerëzve si krijesa morale, psikologjike dhe strategjike, që janë në mënyrë unike të afta për të dhënë gjykime tërësore.

Makineritë do të evoluojnë shumë më shpejt se gjenet tona, duke shkaktuar dislokim të brendshëm dhe divergjencë ndërkombëtare.

Ne duhet t’i përgjigjemi këtij ndryshimi me maturi, veçanërisht në filozofi dhe në konceptualizëm, si në nivel kombëtar dhe global. Harmonizimi global është i detyruar të shfaqet ose nga perceptimi ose nga katastrofa, siç parashikoi Emanuel Kanti, tre shekuj më parë.

Ne duhet të përfshijmë një paralajmërim për këtë parashikim: Çfarë ndodh nëse kjo teknologji nuk mund të kontrollohet dot plotësisht? Po sikur të ketë gjithmonë mënyra për të gjeneruar gënjeshtra, fotografi false dhe video të rreme dhe njerëzit nuk do të mësojnë kurrë të mos besojnë atë që shohin dhe dëgjojnë?

Njerëzit janë mësuar që nga lindja të besojnë atë që u shohin sytë dhe u dëgjojnë veshët dhe kjo mund të mos jetë më e vërtetë si rezultat i Inteligjencës Artificiale gjeneruese.

Edhe nëse platformat e mëdha, nëpërmjet rregulloreve, punojnë shumë për të dalluar dhe veçuar përmbajtjen e keqe, ne e dimë se përmbajtja që shihet një herë, nuk mund të jetë e padukshme.

Aftësia për të menaxhuar dhe për të kontrolluar plotësisht përmbajtjen e shpërndarë globalisht, mbetet një problem serioz dhe i pazgjidhur.

Në zgjidhjen e këtyre çështjeve, ChatGPT ngre më shumë pyetje sesa jep përfundime. Tani për tani, kemi një arritje të re dhe spektakolare si Inteligjenca Artificiale, që konsiderohet si e lavdishme për mendjen njerëzore.

Ne ende nuk kemi gjetur një destinacion për të. Ndërsa bëhemi Homo technicus, e kemi për detyrë të përcaktojmë qëllimin e specieve tona. Na takon neve të japim përgjigjet e vërteta.

Zoti Kissinger shërbeu si sekretar Shteti në vitet 1973-’77 dhe këshilltar për Sigurinë Kombëtare në Shtëpinë e Bardhë, në vitet 1969-’75. Zoti Schmidt ishte CEO i Google në vitet 2001-’11 dhe kryetar ekzekutiv i Google dhe pasardhësit të tij, Alphabet Inc., në vitet 2011-’17.

Zoti Huttenlocher është dekan i Kolegjit Schwarzman të Informatikës në Institutin e Teknologjisë në Massachusetts. Ata janë autorë të librit

“Epoka e Inteligjencës Artificiale dhe e ardhmja jonë njerëzore”. Autorët falënderojnë Eleanor Runde për punën kërkimore. /Monitor

spot_imgspot_imgspot_imgspot_img
spot_img
RELATED ARTICLES
- Advertisment -spot_img
- Advertisment -spot_img

Most Popular