26.8 C
București
joi, septembrie 29, 2022

IT & E-commerce – Mai periculoasă decât armele nucleare? Dacă preia controlul, va aduce o catastrofă existențială – Sinteza

1 min read (textul complet), articol clasificat de Robotul Minerva ca: In prelucrare

Creați-vă propriul

dashboard de știri

informația - cheie, 24/7

100+

FLUXURI

Free

Parcurgi informația mai rapid!

Acoperi top 100 surse externe!

Publicat de

Articole din aceeași sursa

- Advertisement -cresterea vanzarilor

O altă amenințare serioasă, pe care unii par să o ignore, este dată de Inteligența Artificială(AI), potrivit unei analize publicate de Salon.com. Pe termen scurt, sisteme de AI precum cele vândute de IBM, Microsoft, Amazon și alți giganți ai tehnologiei ar putea exacerba inegalitatea din cauza prejudecăților rasiale. Potrivit unei lucrări scrise de un fost

O altă amenințare serioasă, pe care unii par să o ignore, este dată de Inteligența Artificială(AI), potrivit unei analize publicate de Salon.com.

Pe termen scurt, sisteme de AI precum cele vândute de IBM, Microsoft, Amazon și alți giganți ai tehnologiei ar putea exacerba inegalitatea din cauza prejudecăților rasiale. Potrivit unei lucrări scrise de un fost angajat Google, software-ul de recunoaștere facială este „mai puțin precis în identificarea femeilor și a persoanelor de culoare, ceea ce înseamnă că utilizarea sa poate să le discrimineze”.

O super-inteligență artificială ar fi prin definiție mai inteligentă decât orice ființă umană

Dar există și riscuri pe termen lung, care decurg din folosirea unor algoritmi care depășesc nivelurile umane de inteligență. O super-inteligență artificială (ASI) ar fi prin definiție mai inteligentă decât orice ființă umană, în fiecare domeniu cognitiv de interes, cum ar fi raționamentul abstract, memoria de lucru, viteza de procesare.

Deși nu există un salt evident de la algoritmii actuali de „învățare profundă” la ASI, crearea unui ASI nu este o chestiune de ”dacă”, ci mai curând de ”când”. Și asta pentru că, mai devreme sau mai târziu, oamenii de știință vor ști cum să construiască ASI sau să creeze un sistem AI care poate construi ASI, prin modificarea propriului cod.

Va fi o catastrofă existențială, un risc uriaș de mediu

Omenirea ar trebui să ia foarte în serios argumentele pentru care „un rezultat implicit al creării super-inteligenței artificiale va fi o catastrofă existențială”.

Aceleași argumente pentru care ASI ar putea provoca dispariția speciei noastre conduc la concluzia că ar putea distruge întreaga biosferă. În esență, riscul prezentat de super-inteligența artificială este un risc de mediu.

O inteligență artificială la nivel uman sau ”inteligența generală artificială” – prescurtată AGI – este piatra de temelie către ASI, iar pasul de la una la alta ar putea fi foarte mic. Un studiu din 2020 arată că cel puțin 72 de proiecte de cercetare din întreaga lume lucrează în prezent la crearea unei AGI.

De ce nu sunt „pure fantezii”

O companie numită 2AI, care conduce proiectul „Victor„, scrie pe site-ul său:

„Se vorbește mult în ultimul timp despre cât de periculos ar fi să dezlănțuiești AI în lume. Un program care gândește de la sine ar putea deveni cel mai bun mod de a distruge civilizația, așa cum o știm? Va inunda internetul cu viruși și ne va șterge datele? Va prăbuși piețele financiare globale și ne va goli conturile bancare? Va crea roboți care vor înrobi întreaga umanitate? Va declanșa războiul termonuclear global? Credem că sunt pure fantezii”.

Cu toate acestea, numeroși oameni de știință atrag atenția că nu e vorba deloc de „pure fantezii”. O super-inteligență artificială ar fi cea mai puternică tehnologie creată vreodată și ar trebui să ne așteptăm ca potențialele sale consecințe să fie și mai perturbatoare decât ale tehnologiilor anterioare. În plus, spre deosebire tehnologiile anterioare, ASI ar fi un agent complet autonom în sine, ale cărui acțiuni pot fi determinate de o capacitate supraomenească de a asigura mijloace eficiente pentru scopurile sale, pe lângă capacitatea de a procesa informații cu o viteză infinit mai mare decât o poate face omul.

Mai periculoasă decât armele nucleare

Fără nicio urmă de îndoială, ASI ar fi o tehnologie extrem de puternică. Iar puterea echivalează cu pericolul. Deși Elon Musk greșește adesea, a avut dreptate când a scris pe Twitter că inteligența artificială avansată ar putea fi „mai periculoasă decât armele nucleare”. Pericolele prezentate de această tehnologie nu s-ar limita la umanitate, ci ar pune în pericol întregul mediu.

Este un motiv în plus ca liderii politici din întreaga lume să fie conștienți de amenințarea ASI, alături de cea privind schimbările climatice. De aceea, toate guvernele lumii ar trebui să impună reglementări stricte proiectele de cercetare care lucrează la dezvoltarea AGI, subliniază sursa citată.

Mai sus regasiți o reprezentare vizuală a conținutului articolului, o clasificare automată și un sumar al acestuia! Preluarea informațiilor urmăreste promovarea și facilitarea accesului la informație, cu respectarea drepturilor de proprietate intelectuală, conform cu termenii și condițiile sursei (www.capital.ro).

Accesați aici articolul integral !

Fluxuri de știri

Articole recomandate

- Advertisement -dezvoltare afacere

Ultimele articole

Alege-ți fluxurile de informații!

Gratis!

 + Promovează-ți compania și oferta sa!