Богатите подготвуваат бункери за апокалипсата, но во еден случај нема да им помогнат

190
Извршниот директор на OpenAI, Sam Altman (лево) и влез во подземен бункер (десно).

Богатите подготвуваат бункери, а т.н preperri ги полнат подрумите со различна храна, но прашање е колку има смисла тоа.

Познато е дека некои богати, особено оние кои заработиле милијарди во технолошкиот сектор, се опседнати со апокалипси и бараат заштита од катастрофи во некакви далечни и скриени бункери, а се чини дека најпопуларна дестинација за вакви засолништа е Нов Зеланд.

Еден таков богат човек кој сака да биде подготвен за апокалипсата е Сем Алтман, извршен директор на OpenAI. Како што им призна на новинарите, нема бункер за судниот ден, но затоа има, како што рече – „структура“, што и да значи тоа.

Но, додека таквите бункери, структури и сè што т.н preperri се подготвуваат да бидат спремни за некаква нуклеарна апокалипса, војни или што и да е, можеби можат да им помогнат да преживеат во некои ситуации, се чини дека нема да можат да се спасат од една опасност.

Ништо од тоа нема да ви помогне ако општата вештачка интелигенција тргне во погрешна насока, се пошегува Сем Алтман за време на неодамнешната конференција во организацијата WSJ.

Иако Алтман се шегувал, оние кои се песимисти за развојот на вештачката интелигенција и нејзиното влијание врз човештвото веројатно ќе се согласат со ваков начин на размислување.

Алтман спомна општа, а не генеративна вештачка интелигенција. Иако можностите на денешната вештачка интелигенција се исклучително големи, таа сепак зависи од податоците на кои е обучена и не може да се совпадне со човечката интелигенција и најчесто се користи како помошник на луѓето.

Иднината, јасно е, ја носи вештачката интелигенција која ќе биде уште помоќна и интелигентна и еден ден ќе може да ги извршува сите интелектуални задачи како и луѓето, и нејзината интелигенција веројатно ќе ја надмине човечката интелигенција.

Никој не го знае одговорот на прашањето што ќе се случи тогаш, а еден ден можеби ќе дознаеме како ќе изгледа таков свет и ни останува само да се надеваме дека општата вештачка интелигенција ќе размислува позитивно за иднината и напредокот на човештвото.

Мислењата за тоа каква иднина ни носи вештачката интелигенција се поделени, а на почетокот на оваа година многу научници и експерти од оваа област дури побарале пауза во нејзиниот развој, додека владите и регулаторните тела на многу земји се зафатени со работа на правила и закони со кој сакаат да постигнат тој развој да не тргне во погрешна насока.

Еден од оние кои предупредуваат за потенцијални проблеми е Сем Алтман, за кој можеме да кажеме дека е еден од најпознатите луѓе во индустријата.

Претходниот пост на блогот на неговата компанија, кој го напишал со колегите, предупредува дека до крајот на оваа деценија, вештачката интелигенција може да ги надмине луѓето во повеќето области и може да претставува егзистенцијална закана за човештвото.

Тој, исто така, ја поддржа изјавата потпишана од извршните директори на DeepMind и Anthropic, со предупредување дека вештачката интелигенција претставува ризик за уништување на човештвото и треба да се третира на сличен начин како пандемии и нуклеарна војна.