The Japan Times - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

EUR -
AED 4.353382
AFN 77.05154
ALL 96.6659
AMD 452.980789
ANG 2.12196
AOA 1087.011649
ARS 1715.27374
AUD 1.700138
AWG 2.136683
AZN 2.016962
BAM 1.955717
BBD 2.406598
BDT 146.013807
BGN 1.990725
BHD 0.449081
BIF 3539.949869
BMD 1.1854
BND 1.513236
BOB 8.25665
BRL 6.231058
BSD 1.194849
BTN 109.725346
BWP 15.634337
BYN 3.403256
BYR 23233.834642
BZD 2.403098
CAD 1.611918
CDF 2684.930667
CHF 0.911329
CLF 0.026011
CLP 1027.065402
CNY 8.240602
CNH 8.248669
COP 4350.11551
CRC 591.674907
CUC 1.1854
CUP 31.413093
CVE 110.260324
CZK 24.336607
DJF 212.770976
DKK 7.470147
DOP 75.22681
DZD 154.464449
EGP 55.903629
ERN 17.780996
ETB 185.616528
FJD 2.613392
FKP 0.865856
GBP 0.861451
GEL 3.194656
GGP 0.865856
GHS 13.089445
GIP 0.865856
GMD 86.534664
GNF 10484.555345
GTQ 9.164611
GYD 249.979398
HKD 9.259098
HNL 31.537662
HRK 7.536653
HTG 156.373368
HUF 380.868342
IDR 19883.302315
ILS 3.66336
IMP 0.865856
INR 108.694634
IQD 1565.333613
IRR 49934.963672
ISK 144.986215
JEP 0.865856
JMD 187.242059
JOD 0.840447
JPY 183.458423
KES 154.263458
KGS 103.663312
KHR 4804.796226
KMF 491.940791
KPW 1066.859756
KRW 1719.772596
KWD 0.363823
KYD 0.995758
KZT 600.944514
LAK 25713.909461
LBP 106999.862086
LKR 369.514329
LRD 215.370866
LSL 18.971995
LTL 3.500177
LVL 0.717036
LYD 7.497682
MAD 10.83854
MDL 20.097148
MGA 5339.773538
MKD 61.637386
MMK 2489.728817
MNT 4227.587506
MOP 9.608592
MRU 47.674978
MUR 53.852825
MVR 18.326127
MWK 2071.912129
MXN 20.704153
MYR 4.672852
MZN 75.580739
NAD 18.971995
NGN 1643.533583
NIO 43.968135
NOK 11.414558
NPR 175.560554
NZD 1.959292
OMR 0.458021
PAB 1.194849
PEN 3.994931
PGK 5.114783
PHP 69.837845
PKR 334.292423
PLN 4.212869
PYG 8003.660561
QAR 4.356415
RON 5.097103
RSD 117.395021
RUB 90.53616
RWF 1743.326065
SAR 4.447253
SBD 9.54438
SCR 17.20327
SDG 713.019239
SEK 10.549127
SGD 1.506168
SHP 0.889357
SLE 28.834855
SLL 24857.238699
SOS 682.871039
SRD 45.10505
STD 24535.381029
STN 24.498961
SVC 10.454557
SYP 13110.017057
SZL 18.966196
THB 37.222281
TJS 11.154027
TMT 4.148899
TND 3.433054
TOP 2.854158
TRY 51.401896
TTD 8.112656
TWD 37.456216
TZS 3076.769513
UAH 51.211828
UGX 4271.81883
USD 1.1854
UYU 46.368034
UZS 14607.380494
VES 410.078852
VND 30749.268909
VUV 140.815358
WST 3.213359
XAF 655.929182
XAG 0.014004
XAU 0.000244
XCD 3.203602
XCG 2.153409
XDR 0.815765
XOF 655.929182
XPF 119.331742
YER 282.51038
ZAR 19.104199
ZMK 10670.019447
ZMW 23.449006
ZWL 381.698228
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: Martin BUREAU - AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

K.Hashimoto--JT