The Japan Times - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 4.271898
AFN 72.686926
ALL 96.41106
AMD 438.965478
ANG 2.081879
AOA 1066.477167
ARS 1624.84862
AUD 1.648521
AWG 2.093412
AZN 1.975323
BAM 1.965257
BBD 2.338886
BDT 142.484456
BGN 1.987938
BHD 0.440343
BIF 3448.315063
BMD 1.163007
BND 1.485705
BOB 8.02479
BRL 6.112435
BSD 1.161288
BTN 108.535709
BWP 15.868021
BYN 3.457691
BYR 22794.932625
BZD 2.335408
CAD 1.592447
CDF 2643.514377
CHF 0.912012
CLF 0.026742
CLP 1054.23043
CNY 8.002071
CNH 8.000236
COP 4315.662249
CRC 541.594688
CUC 1.163007
CUP 30.819679
CVE 110.798676
CZK 24.416746
DJF 206.785339
DKK 7.471632
DOP 68.911327
DZD 153.897714
EGP 60.75582
ERN 17.445101
ETB 181.307537
FJD 2.569901
FKP 0.871698
GBP 0.864053
GEL 3.157563
GGP 0.871698
GHS 12.703862
GIP 0.871698
GMD 85.479249
GNF 10178.984582
GTQ 8.894805
GYD 242.955448
HKD 9.11082
HNL 30.736916
HRK 7.533491
HTG 152.098679
HUF 386.875395
IDR 19635.04324
ILS 3.610613
IMP 0.871698
INR 108.017038
IQD 1521.321092
IRR 1530080.77726
ISK 143.584908
JEP 0.871698
JMD 182.911804
JOD 0.824605
JPY 184.057503
KES 150.784095
KGS 101.704716
KHR 4653.172524
KMF 496.604216
KPW 1046.710712
KRW 1722.366999
KWD 0.356311
KYD 0.967774
KZT 559.742002
LAK 24959.934934
LBP 103998.309215
LKR 364.649133
LRD 212.515434
LSL 19.690959
LTL 3.434056
LVL 0.703491
LYD 7.433742
MAD 10.8541
MDL 20.311093
MGA 4833.071305
MKD 61.648611
MMK 2441.677383
MNT 4148.387235
MOP 9.369732
MRU 46.355083
MUR 54.161537
MVR 17.980256
MWK 2013.227719
MXN 20.578362
MYR 4.581663
MZN 74.29751
NAD 19.690959
NGN 1598.61056
NIO 42.735658
NOK 11.314369
NPR 173.642681
NZD 1.97742
OMR 0.447162
PAB 1.161233
PEN 4.039841
PGK 5.014021
PHP 69.125688
PKR 324.166696
PLN 4.251168
PYG 7588.5512
QAR 4.246499
RON 5.095251
RSD 117.462099
RUB 95.414029
RWF 1697.814229
SAR 4.365916
SBD 9.364135
SCR 17.796475
SDG 698.96646
SEK 10.791691
SGD 1.480676
SHP 0.872556
SLE 28.580955
SLL 24387.682982
SOS 663.673841
SRD 43.422605
STD 24071.891967
STN 24.61794
SVC 10.160459
SYP 128.586735
SZL 19.683299
THB 37.397661
TJS 11.095514
TMT 4.082154
TND 3.422269
TOP 2.800241
TRY 51.536204
TTD 7.883736
TWD 36.988287
TZS 3018.002423
UAH 50.987774
UGX 4384.003009
USD 1.163007
UYU 47.317913
UZS 14158.255868
VES 528.80828
VND 30634.761239
VUV 138.660755
WST 3.172441
XAF 659.109011
XAG 0.01652
XAU 0.00026
XCD 3.143084
XCG 2.092781
XDR 0.821175
XOF 659.114706
XPF 119.331742
YER 277.502332
ZAR 19.392553
ZMK 10468.458238
ZMW 22.499663
ZWL 374.487704
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

K.Yamaguchi--JT