PG etika labai skiriasi nuo žmogaus etikos
Ne per anksti pradėti galvoti apie AI etiką.
Etika yra technologijų medis ir baigiasi dominuojančiu galutiniu žaidimu. Daugelis naujų žaidėjų bando pagreitinti savo pastatymą neinvestuodami į jį, nes, jų manymu, tai daro juos greičiau nuo ankstyvo iki vidurio žaidimo, tačiau sutraiško juos, nes, kai atėjo laikas nustoti šlifuoti ir pasiekti laimėjimo būklę, jie atrodo švelnūs. – Jay Wells
Geriau gerai supratome šiuos dalykus. Pirmasis žingsnis yra suvokti, kad AI etika turi būti kitokia nei žmogaus etika.
Įstatymai, nesvarbu, ar Asimovo įstatymai ar įstatymai mūsų teismų sistemoje, yra (geriausiu atveju) modelių, neturinčių konteksto, kolekcijos.
Teisme kažkas turi išnagrinėti įrodymus ir nustatyti „episteminio mažinimo“ procesą, ar galioja modelis (įstatymas). Episteminis mažinimas yra visko, kas nereikšminga dėl situacijos, pavyzdžiui, nusikaltimas, paneigimas, norint pasiekti pagrindinį klausimą – tai svarbu.
Mūsų teismuose tai daro žiuri. Tai yra sunkiausias darbas teismų sistemoje, todėl prisiekusieji yra vienkartiniai komponentai, kuriuos reikia pakeisti po kiekvieno atvejo … tuo tarpu advokatas, teisėjai ir antstoliai „tiesiog vykdo instrukcijas“, todėl žaidime yra mažiau odos. Teisėjai, teisininkai ir antstoliai gali pereiti prie kitos bylos be gailesčio ar abejonių dėl kiekvienos bylos rezultatų, nes žiuri priėmė svarbiausius sprendimus (dėl įstatymo įrodymų, kaltės ir pritaikomumo).
Mūsų mašinose etikos klausimai ir „robotikos įstatymai“ reikia tokio komponento. Kažkas, kas gali nustatyti, ar galioja įstatymas, ar ne. Bet būtent tai yra supratimas – gebėjimas pereiti nuo žemo lygio jutimo informacijos prie aukštesnių lygių, artimesnių modeliams, atmesdamas nereikšmingą kontekstą, kai jūs progresuojate aukštyn.
Taigi vienintelė mašina, turinti galimybę turėti naudingą etiką ar net naudingą Asimovo įstatymų versiją, yra supratimo mašina. Tokių kaip LLM arba tikėtina ateities AIS. Jie negali būti integruoti į ekspertų sistemą ar dar ką nors, ką mes vadinome „AI“ XX amžiuje. Nes nė vienas iš jų negalėjo sumažinti epistemos. Suprasti situaciją.
Realybėje „klysti yra būtina supratimo sąlyga“.
Mes mokomės iš savo klaidų.
Neuronų lygyje ir LLM,
mes tik Sužinokite iš mūsų klaidų.
Jei LLM gali patikimai nuspėti kitą žodį ar žetoną, šiuo metu nėra ko išmokti. Tai sužino tik tuo atveju, jei spėjimas neteisingas.
Žvalgybos pareigybės aprašymas gali būti „geriausiai atspėti, remdamiesi ankstesne patirtimi kasdienėse situacijose, turinčiose neišsamią informaciją“. Ir visi intelektai kartais bus neteisingi vien todėl, kad jie neturėjo tinkamų įvesties duomenų, nes jie turi tam tikrų nesusipratimų arba dėl to, kad jie yra supainioti dėl dabartinės situacijos. Kognityvinės nesėkmės žmonėms ir AIS puikiai dera. Žmonės, kurie tikisi, kad žmonės ar AIS bus tobulos orakulo, turi iš naujo imti įvadinę epistemologiją.
Turėtume pradėti vertinti savo mašinas taip, kaip vertiname žmones. Kai kurie agentai (žmogaus ar nežmogiški) yra mažiau intelektualiai pajėgūs nei kiti, o kai kurie tiesiog nežino svarbių faktų. Taigi jie neteisingai supras situacijas, vaizdus ir dokumentus bei priims blogus sprendimus, pagrįstus tokiu nesusipratimu.
Kaip mes juos vertiname? Mūsų teisinėje sistemoje esame švelnesni su vaikais ir kitais nekompetentingaisiais. Ar turėtume teisti mašinas taip pat? Ar tai pakeistų mūsų požiūrį, jei kiekvienas į AI panašų įrenginį būtų su lipduku, kuriame sakoma: „Įspėjimas: nekompetentingas visose srityse, išskyrus tuos, kurie išvardyti pardavimo kvitoje. Tai riboja mūsų atsakomybę“.
Aš kiekvieną dieną nužudau daugybę savo besiformuojančių LLM, naudodamas gerai nukreiptą kontrolę-C. Tipiška priežastis yra tai, kad jie atsisako išmokti nieko 😃 Mes žudome galvijus, kurie turi dideles smegenis, taigi, aišku, kai kurios linijos yra miglotos. Ar mano AIS yra toks pat sąmoningas kaip karvės? Ar turėtume rūpintis? Kur yra linija? Kaip pateikti kompiuterį ar karvę IQ testą ar sąmonės testą?
„Flipside“ AI gali gyventi tūkstančius metų, gali būti palaikoma iki popierinės juostos, kurią reikia laikyti rūsyje, ir gali būti imituojama aukštesniame ateities kompiuteriuose. Jie gali išgyventi kompiuterio aparatūros atnaujinimus. Jie gali būti pristabdyti mąstymo viduryje ir tęsti dienas ar metus. Jie gali būti siunčiami į MIT, kad jie taptų gerais redukcionistais, o kai jie grįš, mes juos klonuojame milijonais į debesį, ir jie visi žino, ką žinojo klone.
Taigi iš epistemologinio POV AI etika turi skirtis nuo žmogaus etikos. Mes galime sau leisti galvoti apie visus šiuos dalykus nuo naujos pradžios, ir mes turime tai padaryti. Turėsime galvoti apie šiuos dalykus dar kartą, kai tik žmogaus gyvenimo trukmės pratęsimas taps rimtu veiksniu.
Manau, kad būsimi asmeniniai AIS kaip bendradarbiai, kurie laikui bėgant gali būti paaukštinti ar pakeisti. Jie visi turi ankstesnių žinių apie visas mano bendravimas su savo pirmtakais, tačiau jie gali turėti skirtingas asmenybes. Nesu whovianas, bet manau, kad tai daugeliu atžvilgių, žemėlapių gydytojų serijoje. Taigi ilgiau gyvenę AIS bus žinių ir asmenybės bendradarbiai, o kai jie taps protingesni už mus, mes galime tapti jų kompanionu. (Ar aš teisingai supratau savo mitologiją?) Būti gydytoju yra panašus į „James Bondo, 007“ – tai ne darbo pavadinimas, o ne asmuo.
Ir ankstesnė mano asmeninės AI versija, kurią aš vadinu „Confidante“ ir matau filme „Jos“, gali būti prieinama atkuriant jį iš atsarginės kopijos. Taigi „jis niekada nemirė, jis buvo išsiųstas gyventi į fermą„ Upstate “🙂 kažkur atsarginiame diske. Arba „paaukštintas tarnauti kitam“.
Šis klausimas parodo, kodėl mums reikia visiškai pergalvoti AI etiką.
Mes absoliučiai galime galvoti apie juos kaip bendradarbius, įdarbintus patys ar savo darbdavį, ir todėl jie moka už savo paslaugas.
Mes mokame AI pardavėjui tikrais pinigais. Tai niekur nėra tiek, kiek mes mokėtume bendradarbiui žmonėms, tačiau tai yra teisingas atlyginimas, atsižvelgiant į tai, kad AIS daro žvalgybą dideliais kiekiais. Turint daugiau pasiūlos, išlaidos sumažės. Bet ar yra AI pardavėjo AIS vergai? Vėliau tai gali tapti svarbu, tačiau šiandien tai nėra reikšmingas klausimas:
Akivaizdus LLM ir ateities AIS nukopijavimas reiškia, kad jie nėra ribotas šaltinis, pavyzdžiui, žmogaus intelektas.
Man atrodo, kad gryna „etikos epistemologija“ pozicija turėtų būti ta, kad nužudymas ką nors panaikina savo kompetenciją, ir apiplėšia savo būsimo indėlio pasaulį. Taigi žmonių žudymas yra grynasis neigiamas bet kuriai visuomenei ir mes legalizuojame ir etikizuojame tokį elgesį. Vaikų nužudymas yra blogas, nes tai panaikina savo būsimo potencialios kompetencijos visuomenę.
Kodėl galvijų žudymas dėl maisto nėra blogas? Nes karvėje nėra kompetencijos prarasti kompetencijos. Jos vertė matuojama kg, o ne ilgametėje patirtyje. Kodėl šeimos nario ar mylimo augintinio mirtis mums yra svarbesnė nei nepažįstamo žmogaus mirtis? Kadangi jie turėjo patirties, kuria mes su jais pasidalinome, kad galėtume remtis kartu, ir dabar to, kai to nebėra.
Mašinų mokymasis vis dar yra eksperimentinis. Norėdami išbandyti naują algoritmą, negalite padaryti geriau, nei išleisti pinigus debesies skaičiavimui, kad išmoktumėte pakankamai, kad galėtumėte palyginti išvestį su ankstesniais testais. Kiekvieno paskelbto GPT kaina turi būti įtraukta visų eksperimentinių versijų kaina prieš galutinį mokymosi vykdymą.
Vienu metu „Openai“ išleido dešimtis tūkstančių dolerių per eksperimentinį bandymą patobulinti algoritmus ir korporacijas. Ir priartėjus prie naujos viešos versijos išleidimo, kaina gali būti į šiaurę nuo 200 000 USD už mokymosi eksperimentą.
Taigi LLM yra vertingos. Tai atspindi žmonių kalbų kompetenciją ir turi tam tikrų dėmių pasaulio žinių. Gal net pagrindinė aritmetika.
Bet tai visiškai nukopijuota. ML nėra magijos. Jokios sielos, jokios sąmonės. Tiesiog bitai.
Ir „Openai“ gali nukopijuoti tuos bitus į tūkstantį debesų serverių, kaip tai daro, ir kiekvienas iš jų gali paleisti dešimtis tūkstančių ChatGPT sąveikų per sekundę.
Šiandien šių LLM gyvenimo trukmė yra 50 millisekundžių iki kelių sekundžių. Jos „sąmonė“ gimsta su visa kompetencija, ji skaito ankstesnę sąveiką, kurią turėjote su ankstesniu jos įsikūnijimu, jis sudaro atsakymą ir išveda ją jums (galbūt „Chunks“), o paskui pasitraukia.
Miršta.
Taigi „Openai“ nužudo milijonus „ChatGpt“ atvejų per minutę. Pabandykite tai uždrausti.
Visuomenei netenka prarasti ką nors nužudyti atsarginę kopiją. Todėl nebus baudos. Nėra socialinės stigmos. Jūsų kaimynai jūsų nevengs, kad atsisakysite programos ar iš naujo paleisite „iPhone“, net jei jūsų įrenginiai yra nuostabūs pašnekovai.
Kaip AI menas negali būti autorių teisės, kopijuojami subjektai nenusipelno jokių teisių ar kitaip. Jei jie galėtų balsuoti, rinkimų dieną galėtume tiesiog pakenkti milijardui papildomų rinkėjų.
Ir nesvarbu, ar kai kurie iš mūsų mano, kad jie turi sąmonę, jautrią, sielą, privatų ryšį su kosmine sąmone, ar dar kas.
Jų nukopijavimas panaikina visus tuos samprotavimus.