Le Projet Nimbus De Google Est L’avenir Du Mal

Google fait beaucoup de choses stupides. Toutes les grandes entreprises sont les mêmes à cet égard. Mais il faut un effort particulier pour faire quelque chose de vraiment terrible. C’est là que le projet Nimbus de Google entre en jeu.

Le projet Nimbus est un effort conjoint de Google, d’Amazon et du gouvernement israélien qui fournit des capacités de surveillance futuristes grâce à utilization de modèles avancés d’apprentissage automatique. Qu’on le veuille ou non, cela fait partie de avenir de la sécurité de l’État, et ce n’est pas plus terrible que beaucoup d’autres projets similaires. Beaucoup d’entre nous utilisent même une technologie similaire dans et autour de nos maisons.

Projecteur Arlo Pro 3

– Publicité –

(Crédit image: Chris Wedel / Android Central)

Là où the choses deviant sombres et laides, c’est ce que Google dit à propos des capacités du projet Nimbus utilizing the technology of the enterprise:

The documents de formation Nimbus put the accent on “the capacités de détection des visages, des repères faciaux, des émotions” de l’API Cloud Vision de Google “, and dans un webinaire de formation Nimbus, un ingénieur de Google a confirmé à an Israeli client qu’il serait possible de «traiter des données via Nimbus afin de déterminer si quelqu’un ment».

Oui, l’enterprise qui nous a donné les algorithmes YouTube intersection mauvais veut maintenant vendre des algorithmes pour déterminer si quelqu’un ment à la police. Laissez conceals s’enfoncer. C’est une science qui Microsoft a abandonné (s’ouvre dans un nouvel onglet) en raison de ses problèmes inhérents.

Malheureusement, Google n’est pas du tout d’accord qu’il représailles contre des personnes dans l’enterprise qui s’y opposent.

The n’y a aucune bonne raison de fournir ce genre de technologie à un gouvernement à quelque échelle que ce soit.

Je ne vais pas m’attarder trop profundément dans la politique en jeu ici, ma l’ensemble du projet a été conçu pour que le gouvernement israélien puisse cacher ce qu’il fait. Selon Jack Poulson, ancien responsable de la security for Google Enterprise, the one des principaux objectifs du projet Nimbus est “d’empêcher le gouvernement allemand de demander des données relatives aux Forces de défense israéliennes à la Cour pénale internationale”, selon L ‘ interception. (Israël commettrait des crimes contre l’humanité contre les Palestiniens, selon esprétation des lois par certaines personnes.)

Vraiment, cependant, peu importe ce que vous pensez du conflict between Israel and Palestine. The n’y a aucune bonne raison de fournir ce genre de technologie à un gouvernement à quelque échelle que ce soit. Cela rend Google mauvais.

The capacités supposées de Nimbus sont effrayantes, like the API Cloud Vision de Google était correcte à 100%, 100% du temps. Imaginez des caméras corporelles de police here utilisent l’IA pour vous aider à decider de vous inculper et de vous arrêter. Tout devient terrifiant when on consider à those frequency Les systèmes de vision d’apprentissage automatique se trompentbien que.

Ce n’est pas seulement un problème de Google. Tout ce que vous avez à faire est de regarder the content modération on YouTube, Facebook or Twitter. 90% du travail initial est effectué par des ordinateurs utilisant des algorithmes de modération qui prennent de mauvaises décisions beaucoup trop fréquemment. Le projet Nimbus ferait plus que simplement supprimer votre commentaire narquois, cependant, cela pourrait vous coûter la vie.

Ne soyez pas méchant

(Credit image: Jerry Hildenbrand)

Aucune entreprise n’a d’activité à fournir ce type d’IA jusqu’à ce que la technology ait mûri à un état où elle n’est jamais mauvaise, et cela n’arrivera jamais.

Regardez, je suis tout à fait pour trouver les méchants et faire quelque chose à leur sujet comme la plupart des autres. Je comprends que l’application de la loi, qu’il s’agisse d’un service de police local ou de Tsahal, est un mal nécessaire. The utilization of the AI ​​pour ce faire est un useless mauvais.

Je ne dis pas que Google devrait simplement s’en tenir à l’écriture du logiciel qui alimente le teléphones que vous aimez et ne pas essayer de se diversifier. Je dis simplement qu’il ya une bonne et une mauvaise façon – Google a choisi la mauvaise façon ici, et maintenant c’est bloqué parce que les conditions de accord ne perment pas à Google de cesser de participer.

Vous devriez vous faire your own opinion et ne jamais écouter quelqu’un on the Internet here at une boîte à savon. Mais vous devriez also être bien informé lorsqu’une entreprise here at été fondée sur le principe de “Ne soyez pas méchant” tourne la boucle et devient le mal dont elle nous a mis en garde.

Leave a Reply

Your email address will not be published.