AI tar inget ansvar. Det är människan som tar ansvar.

Jag åkte till Evo-köket för att montera den där hyllan.
Hyllkonsolerna från Goriki Island som kunden köpte kostar runt 15 000 yen per set.
Så jag gjorde en hylla av en hel planka i tamo-ask som inte skulle vara sämre än dem.
Oj… strömbrytarplattorna var också Goriki redan när huset byggdes.
Då måste man ju matcha… förlåt (haha)

Monterat snyggtーー。
Jag tänker ta 10 000 yen för material och jobb (superbilligt).
Men… totalt 25 000 yen för en sån här liten hylla,,,,
När köket är så fint kan man inte riktigt köra med en billig hylla från byggvaruhuset…
Det är tufft (haha)
Fogmassan mellan bänkskivan och kaklet hade släppt, så jag hörde av mig till underentreprenören.

Boken om AI var svår, men jag kämpade mig igenom den.
AI tar inget ansvar. Det är människan som tar ansvar.
Om en serveringsrobot häller skållhet ramen över dig så låtsas roboten som ingenting. Om ett hus blir snett med AI-arkitektur, eller om någon blir påkörd med AI-körning, så är det samma sak: till slut är det personen som gav sista OK som får städa upp.
Alltså handlade boken inte om “white collar utrotas”, utan den sa att boss-kraft = den som kan bära ansvar överlever.
Den misslyckade DX-eran går vidare till en era av AX (AI Transformation).
Visst, med DX var det ofta så att folk över mellanchefsnivå var fax- och “garakei”-generationen, så det blev omöjligt.
Men med AI kommer många att missförstå och tro att det blir som “100 miljoner Tokyo-universitetsstudenter”… så en sån tid kanske faktiskt kommer.
Chefer som tidigare flydde med “det är underordnade som är dåliga” kommer inte undan med “det är AI:s fel”.
Då blir det du som är skyldig för att du inte kontrollerade.
Särskilt behöriga proffs med ansvarskänsla kollar allt ändå, så det kan vara snabbare att göra det själv från början… och AI blir bara i vägen.
Nu kryllar det av AI-säljare, men att ansvaret ligger på den som använder (planeringen) är självklart, och säljarna tar inget ansvar.
Det är som “managementkonsulter” som snackar som om de kan allt, suger ut pengar, och även om företaget går i konkurs tar de inget ansvar.
Och så har vi garakei–natives (ser ut som en smartphone men används bara för att ringa och titta på tuttbilder) – de kommer att tro “det här är smidigt” och använda det lättvindigt och orsaka en stor olycka.
“Ah, det där… det där kan jag ju” säger de och vänder ryggen till och frågar AI. För deras specialitet är att låtsas kunna.
Om man använder AI som ett verktyg, eller av beroende kastar över rapporter och jobbrapporter helt på AI och blir ännu dummare.
AI är som en spikpistol: snabbare än att spika för hand, men missar du så skjuter du sönder grannens fönsterruta.
I slutändan är det en dragkamp mellan kostnad/tid och risk. Ju mer du vill göra det lätt för dig, desto större blir risken.
AI är en inferensmodell. Den är bara bra på att “gissa” rätt svar. Ett verktyg som plöjer igenom nätet och berättar “andrahandsinfo” på ett trovärdigt sätt.
Sedan gnuggar AI den andrahandsinformationen vidare och vidare till tredje och fjärde hand – längre från verkligheten. I AI-världen kallas det ofta “model collapse” (modellkollaps).
AI är: “Har aldrig slagit i en spik, men vet hur man gör.”
Det här är garanterat typen som krossar fingrarna (haha)
Det var en NEETs bokrapport♪









