Fórum témák

» Több friss téma
Fórum » Érdekességek
 
Témaindító: Gatery, idő: Szept 5, 2006
Lapozás: OK   676 / 676
(#) mateatek válasza zolika60 hozzászólására (») Hé, 12:09 / 9
 
Én nagyon nem bánnám, ha a HE azon helyek egyike lenne, ami nincsen telerakva MI szeméttel.
(#) lazsi válasza mateatek hozzászólására (») Hé, 12:43 / 1
 
Mondjuk abban igazad van, hogy ennek inkább a "Vicces" topicban lenne a helye...
(#) tki válasza mateatek hozzászólására (») Hé, 14:45 /
 
Én sok képet-rajzot készíttettem a DALL-E 3-mal, rendkívül jó játék volt, ahogy egy-egy rövidebb promptot kiegészített az én szempontomból véletlenszerű részletekkel, mielőtt nekiállt. Erővel sem lehetett tárgyilagosságra és precizitásra bírni, amiből sok humor fakadt, bár én is igyekeztem a témák megadásánál.

Viszont ahogy azóta jó néhányan leírták, már közhely lett, hogy egy idő után a sok szerkezeti tévedés kezd taszító, szinte émelyítő lenni, elég kemény az elutasításuk is. Itt sem lehet eltekinteni tőle, azonnal látszik, hogy a balta feje eltér a teste által sugallt előre iránytól, ilyet nem szoktunk csinálni. Itt nem az a kérdés, látszik-e az eszközön, hogy nem valódi (mellesleg addig jó), hanem hogy kellemes-e a szemnek.

Ami érdekes, hogy ez részemről már évekkel ezelőtt volt, de a különböző oldalakon látott, frissnek tűnő, utólag nyilván nem javítgatott képek is hasonló problémákkal küzdenek, mintha ebben nem lenne áttörés, sőt nem is tudom már ugyanazt a játékosságot, vagyis annak látszó tulajdonságokat kihozni a mostani képgeneráló változatokból.
(#) zolika60 válasza mateatek hozzászólására (») Hé, 16:04 /
 
Nekem sem hiányzott.
(#) Laci66 válasza lazsi hozzászólására (») Kedd, 4:45 /
 
A fenébe is...
Én abban reménykedtem hogy olyan mint Obi-Van fénykardja.
Ha nincs lézerpengéje, nem is veszek ilyet!
(#) uniman válasza mateatek hozzászólására (») Kedd, 7:04 /
 
Én is örülnék, ha hanyagolnák a fórumon. (Ráadásul buta is, én és a gugli sokkal okosabbak vagyunk együtt). Például a kutyánkat is "elintézte", még egy könyvet sem tud úgy ábrázolni, hogy nyitott legyen és látszódjon az előlapja is!

ebem.jpg
    
(#) Suba53 válasza Laci66 hozzászólására (») Kedd, 7:32 /
 
Az AI még rengeteget hibázik, amikor képeket, vagy videókat gyárt.
Ennél is azonnal feltűnik, hogy a penge és az akku tengelye jelentősen bandzsít.
(#) cua válasza tki hozzászólására (») Kedd, 7:55 /
 
Ertelemszeruen ezt inkabb ugy erdemes nezni, hogy mire volt kepes ez a technologia 1/5/10/20 eve.
En jol emlekszem a 90-es evek elejen meg BBS-eken keresztul kommunikaltunk, par baud-os sebesseggel, mar akinek volt szamitogepe es tudta is hasznalni.
Ahhoz kepest ami most van az sci-fi kategoria.
(#) Gafly válasza cua hozzászólására (») Kedd, 8:47 /
 
Én még arra is emlékszem, hogy mekkora örülés volt amikor meg tudtam venni magamnak "A" számítógépet, ami ZX81 volt.
Meg Fortran nyelven lyukkártyán lefutott R40-en az első programom. Valahol még megvan a köteg, befőttes gumival kötegelve ("batch", amit operátorok futtattak, és másnapra megvolt a "leporelló").
AI tényleg sokat fejlődött, napi élet része lett, meg kell tanulni használni, és együtt élni vele. Visszaút nincsen.
Írtam egy szösszenetet, nagy sértődés is lett belőle, de nem azért, mert példaként belevontalak. Lehet használni, sokat tud segíteni, de a "felsőbbrendű" ahogyan én hívom, nem "mindenható" és "tökéletes".
(#) cua válasza Gafly hozzászólására (») Kedd, 9:24 /
 
"Írtam egy szösszenetet,..."
Lattam, mosolyogtam is rajta
A hozzászólás módosítva: Kedd, 9:24
(#) Rosszmáj válasza cua hozzászólására (») Kedd, 9:43 / 1
 
"Használja a mesterséges intelligenciát az, akinek nincs saját természetes intelligenciája." Albert Einstein
(#) Skori válasza Rosszmáj hozzászólására (») Kedd, 9:48 / 8
 
"Az a baj az ilyen internetes idézetekkel, hogy az eredetiségük erősen megkérdőjelezhető."
Petőfi sándor
(#) Suba53 válasza Rosszmáj hozzászólására (») Kedd, 12:59 / 1
 
Akinek nincs saját, annak gőze sincs hogy mit kezdjen vele.
A hozzászólás módosítva: Kedd, 13:04
(#) Massawa válasza Rosszmáj hozzászólására (») Kedd, 15:02 / 1
 
Már itt az ideje, hogy megjelenjen a mesterséges hülyeség is, hogy rendbe tegye mesterséges intelligenciát. Ellenzék nélkül elburjánzik az AI hatosugara.
A hozzászólás módosítva: Kedd, 15:03
(#) tki válasza cua hozzászólására (») Kedd, 15:37 / 2
 
Nem tudom, miért írod, hogy történelmileg kell nézni ezt a technológiát, hiszen nem azt kritizáltam, hogy _miért_ tart (csak) itt vagy ott. Ha már történelem, nézd meg, ennek a hozzászólásnak a végére meddig jutunk el...

Amúgy nem érdemes az LLM-eket misztifikálni, ilyen félrevezető fogalmakat használni, mint “a felsőbbrendű”. Ez egy betanítás után mozdulatlan, változatlan, állapotok nélküli gép (egy ravasz autocomplete) ami nem fejlődik, nem javul (nem is nagyon lehet utólag tanítani, lásd: “catastrophic forgetting”), egyvalamit tesz: megpróbálja befejezni a történetet, amit megadsz neki. Ezt a feladatot viszont csak véletlenszerűség hozzáadásával képes elvégezni, a hibák, bizonytalanságok bele vannak építve (Temperature), különben egy válaszban csak a legvalószínűbb pár szót ismételgetné, pl.: a macska szőrös, a macska szőrös, a macska szőrös, és soha nem tévedne más utakra, nem adna bővebb választ. Ez a kiindulópont, a többi a megvalósítás részleteiben rejlik.

AI-témában kiadtak egy megosztott Nobel-t az asszociatív hálózatokért, ill. a betanítás módjáért, amikor _van_ visszaterjesztés, mert működés közben csak egy irányban történik a legvalószínűbb szavak, tokenek kiválasztása. 1. A modelleket egyrészt a következő szó (token) előrejelzésére tanítják, amivel nemcsak egy adott helyre a legmegfelelőbb szavakat tanulja meg, hanem járulékosan logikát (!), amit a nyelv tartalmaz, összefüggéseket, stílust is. Ennek felismerése is újdonság volt még nem olyan régen, ezért gondolják, hogy más meglepetés is jöhet még. 2. Aztán következik a finomhangolás (ez volt a Nobel-díj másik fele), amikor van súlyozás, visszaterjesztés, ami az egész modellre hatást gyakorol. Ez viselkedést tanít, hogy hasznos választ adjon, ne csak azt, ami az adott témában “eszébe jut”. 3. Aztán specifikus adatokkal "kézzel" finomhangolják (RLHF), szabályozzák az egész modell működését, pl. hogy milyen hangnemben válaszoljon, miket nem szabad kimondania, tömör legyen vagy bőbeszédűbb stb. Szóval nincsenek elkülönült tudásdarabkák, együtt él az egész rendszer, ettől jöttek a minőségi változások, de eddig még így is keményen megvannak a korlátai.

Tehát működés közben kb. annyi történik, hogy van egy csomó asztalunk, rajtuk a tokenek (szavak, szótöredékek). Mindegyik mellett ül egy csapat gyerek (bár az egyik forrásban itt tudósokról van szó : -) ). Nem tudják, mit jelent a mondat, nem tudnak a többi asztalról, de képesek mintafelismerés alapján és bizonyos szabályok alkalmazásával a legvalószínűbb szavakat kiválogatni és az előttük levőket azzal kiegészíteni. Majd megy a mondat a következő asztalra, ahol ugyanez fog történni az addig elkészült anyaggal. Ami az izgalmas, hogy ez az eljárás, ami nem tűnik különösebben komolynak, olyan adatokkal, valószínűségekkel dolgozik, amik mélyen összefüggnek egymással, úgyhogy a végén mégis valami minőségileg új jön ki belőle.

Ez nagyon izgalmas, egyes feladatokra egészen jól használható, de komoly korlátai vannak; nem képes valaminek a lényegét megragadni, a működéséről modellt felállítani, emiatt egyelőre nem mondhatjuk, hogy intelligens, és nem lesz találékony, mert nincsenek hozzá általános ismeretei és mert továbbra is egy statisztikai gép. Például nem tud egy tárgyat a meglevő fizikai és más addigi ismeretei alapján általánosságban elképzelni, ezért vannak állandóan szerkezeti nonszenszek a rajzain vagy ezért nem képes egy tárgynak a felőlünk láthatatlan részét jól elképzelni. (Egyébként ilyen betanítást is emlegetnek, emberi tapasztalatok betanításáét, mint amikor egy gyermek megszületik és felnő.)

A fejlesztők ezekből próbálják a legtöbbet kihozni többek közt a betanítás javításával és újabb módszerekkel a fenti kereteken belül, ami persze nem kevés. A DeepMind esetében pl. nem is LLM-el próbálkoznak, hanem más módszerekkel, viszont lehet, hogy valamiféle hibrid lesz a legjobb út. Fantasztikus eredményeik vannak bizonyos fajta problémamegoldásokban is, olvasható, hogy valamelyik eszköz önálló munkával fejtett meg, ha jól emlékszem, elméleti matematikai problémát, amit ember még nem, de a munkafolyamatok automatizálása terén nagyon-nagyon alacsonyak a pontszámok. A cél az AGI és az ASI létrehozása, az első az emberhez hasonló képességeket jelent, a második, ami minden területen jelentősen meghaladja az ember képességeit.

Az LLM-eknél létezik egy jellegzetes görbe, amin az látható, hogy adott számítási teljesítménynél a különféle modellek pontossága (a hibaarány) ugyanaddig a szintig csökkenthető csak, és ezen csak a számítási teljesítmény hatalmas növelése képes javítani. Ami önmagában óriási teher a világnak. Rövid távon amúgy sincs okunk örülni, ha sikerülnek a cégek tervei, mert az szó szerint a kapitalizmus, a jelenlegi rend végét jelenti, nem csak kisebb-nagyobb problémákat a foglalkoztatásban. Lehet, hogy később bőséget és nyugalmat hoz, de összefogás, előregondolkodás nélkül az átmenet katasztrofális lesz - márpedig a világ képtelen a közös cselekvésre, hatalmas lelketlen gazdasági és politikai erők irányítják egymás ellenében, “a világ az aljától a tetejéig hazugság”.

Persze ha összejön nekik, de ez nem biztos. Senki sem tudja, mert egymásnak teljesen ellentmondó vélekedéseket olvasni megfelelő emberektől és a zaj is nagy, ami elfedi az információkat. Ami a szoftvereket illeti, már a jelenlegi állapot is éppen eléggé felboríthatja az életet; úgy néz ki, jó pár ezer cég létezik, amik már úgy fejlesztenek, hogy nincs emberi kódolás, ellenőrzés (review) a folyamatban. Ez a felállás már működik és termel, és nem óriásvállalkozások formájában. Igaz, a valós költségeket, pénzügyi fenntarthatóságot nem tudjuk, mert az adatközpontokat nem a költségeknek megfelelő áron működtetik, ezért az ezekre épülő üzleti tevékenység nem tudni, valóban nyereséges-e, de a szoftverírós példánál maradva könnyen elképzelhető, hogy az nagyon is, annyira lecsökkenti a lassú emberi munka szerepét. Másfelől sok kritikát is látni, hogy a vibe coding nem működik és több időbe kerül vele kódot írni, mint nélküle. Csak asszisztálni képes az LLM mindabból az okból, amiről most szó volt. Hogy csak a meglevő tudásból képes meríteni, meglevő megoldásokat kombinálni, hogy pl. olyan programozási nyelvet nem fog tudni, amit nem tanítottak be sok-sok példával. Komoly érvek látszanak mindkét oldalon, amik annyira ellentétesek egymással, hogy az roppant fárasztó.

Ezek a fejlesztések konkrétan aszinkron módon zajlanak, vagyis nem ül ott valaki az AI előtt, aki kódoltat és rögtön ellenőriz. A módszer nemcsak szoftveríráshoz használható, csak nekem ez van a fókuszban. Mindenesetre a promptoláshoz szükséges tudás, a módszertan néhány hónap alatt hirtelen kibővült (újabban minden ilyen sebességgel mozog); most már külön létezik prompt engineering és context engineering (és intent engineering stb., lásd legalul). Így csoportosíthatók azok a kategóriák, amiknek pontos kidolgozása leginkább segítik az AI-t egy-egy feladat hatékony elvégzésében. Ezek köré, az AI által értelmezhető formában kell létrehozni és karbantartani egy vállalat dokumentációit, specifikációs bázisát is. Egy konkrét feladatnál először ezekből az információkból kell egy dokumentumcsomagot elkészíteni, ezt odaadni az AI-nak, ami aztán aszinkron módon órákig-napokig, de egy nagyobb feladatnál akár (majd) hetekig-hónapokig rágja ezeket a szövegeket és dolgozik az eredményen. Bár lehetnek beavatkozási pontok, pl. amikor az AI meghatározza magának a teendőket és azok sorrendjét, de általában ha valahol hibáztunk, pontatlan leírást adtunk, akkor lehet, hogy a “futtatást” elölről kell kezdeni, mivel a javítgatással, utólagos kontextusbővítéssel általában csak romlik a gép teljesítménye, romlanak a válaszok. : -) Ami nincs jól megfogalmazva, arra a válasz is értékelhetetlen lesz, eltűnik a véletlenszerűségben, zajban.

Ezeket bárki kipróbálhatja, sok a nyílt forrású szoftver, a modellekhez pedig kisebb munkákhoz elfogadható árú előfizetések léteznek és a hatékonyság gyorsan nő, ami nagyon kell, tavaly egy kicsi, de komplett program elkészíttetése sem fért bele a keretbe (az én keretembe...), sehol sem volt tőle. Most leginkább a Claude Cowork (aminek része a Claude Code), amivel ezeket a “személy asszisztens”-szerű, önállóbb működést, ill. az önálló kódírást meg lehet tapasztalni. A hibákról, problémákról persze kevésbé szeretnek beszélni, de a módszerek is alakulnak, pl. ott a Ralph-loop és az ezt a fajta működést megvalósító szoftverek, amik “csupán” azt teszik, hogy iterációkon keresztül ismétlik és ismétlik a feladatot, amíg egy előre meghatározott célt, működést el nem ér az eredmény (acceptance criteria). És ezt a mai modellekkel már meg is lehet tenni normál előfizetésekkel, hogy órákig dolgozzanak egy-egy feladaton. Mindez máris óriási távolságban van a sima promptolással végzett kérdezősködéstől. Amiknél egyébként csak a problémákat lehet tapasztalni, így a gyakori szkepticizmus vagy szarkazmus nagyon is érthető, csak vannak a fejlődésnek további oldalai is...

Források:
- Az emlegetett Claude Cowork a gyakorlatban egy magyar felhasználótól magyarul, aki nem programozó, ami a kísérletek lényegéhez tartozik: https://www.youtube.com/watch?v=4i37ZP8oi58
- Félnetek nem kell - Prof. Cal Newport (computer scientist): https://www.youtube.com/watch?v=HB2Qx25Covo
- Már késő félni - Mo Gawdat (egyiptomi szoftverfejlesztő, akad egy-két csúnya tévedése a videóban, de a gondolatmenet érdekes): https://www.youtube.com/watch?v=RiN33qvoDo0
- Az LLM-ek használatának fejlődéséről - napi gyakoriságú információk, láthatóan benne él az illlető abban, amiről beszél: https://www.youtube.com/watch?v=BpibZSMGtdY
- Az egyik konkrét anyag, hogy miért nem promptolásról van már szó: https://www.anthropic.com/engineering/effective-context-engineering...agents
- És egy weboldal a munkafolyamatok automatizálásában elért (csekély) eredményekről, amin még agyalni kell, hogyan értsem: https://scale.com/leaderboard/rli

Csatornaként is érdemes követni egyiket-másikat.

És kb. ezek jöttek a prompt helyébe - nem vesződtem a lefordításukkal:
Intent engineering - tells agents what to want (practice of encoding organizational purpose)
Context engineering - tells agents what to know
Prompt engineering - tells agents how to respond (structure, tone, format)
Memory architecture - tells agents what to remember (short-term, long-term, episodic)
RAG (Retrieval-Augmented Generation) - tells agents what to look up (dynamic external knowledge)
Agent specification - tells agents who they are (role, boundaries, capabilities)
Pipeline design - tells agents how to act (workflow, tool use, handoffs)
A hozzászólás módosítva: Kedd, 15:46
(#) cua válasza tki hozzászólására (») Kedd, 21:39 /
 
Ezt jol osszefoglaltad de en nem errol beszeltem, nem erre reagaltam
A rovid mondokam lenyege a folyamatos es gyors fejlodes. Ami tegnap meg egy lassu, ugyetlen kezdemeny volt (lasd GitHub CoPilot par eve) az ma mar egy szinte nelkulozhetetlen, profi eszkoz.
(#) img hozzászólása Kedd, 22:40 /
 
(#) nagym6 válasza Massawa hozzászólására (») Kedd, 22:52 /
 
Idézet:
„megjelenjen a mesterséges hülyeség is”
Megjelent. Beírtam nevemet lakhelyemmel, az ott (itt) lakó és volt lakó pár azonos nevű embereket teljesen összekeverve egy személyként írta meg, mindegyikünk paramétereit egybekeverve.
(#) tki válasza cua hozzászólására (») Kedd, 23:54 /
 
Nem probléma, gyakorlok. : -) Gyorsulva gyorsul, a falat még meglátjuk, tényleg van-e.
Következő: »»   676 / 676
Bejelentkezés

Belépés

Hirdetés
XDT.hu
Az oldalon sütiket használunk a helyes működéshez. Bővebb információt az adatvédelmi szabályzatban olvashatsz. Megértettem