Categories: FAANG

Foundry au service de la décentralisation, différenciation, déconcentration de la donnée

(Scroll down for English translation below)

De nouvelles infrastructures digitales savamment déployées pourraient-elles rendre les villes plus responsables, durables, efficaces et agréables ? C’est l’idée que poursuivent, depuis près de quinze ans [1], les instigateurs des smart cities ou villes des intelligences. De Marseille à Paris, en passant par Dijon, Lyon, Chartes, Toulouse, Grenoble, Nice, Angers ou Rennes, les municipalités françaises s’efforcent de collecter des données afin de mieux comprendre et résoudre les problèmes urbains.

L’extension des villes et la densification de peuplement bousculent l’organisation des territoires. Par ailleurs, la digitalisation du quotidien contribue au décuplement des données générées. Ces dernières mettent en lumière des facettes jusqu’alors ignorées du potentiel de nos villes. À San Francisco, par exemple, des capteurs scrutent les trottoirs pour réguler stationnement et trafic urbain [2]. À Angers, des lampadaires connectés limitent la consommation d’énergie en contrôlant l’éclairage des quartiers [3].

Les données issues de ces réseaux physiques et connectés [4] sont par essence hétérogènes [5] et dynamiques. Elles constituent une source d’information inédite qui permet à la fois d’affiner notre compréhension de systèmes complexes et d’appréhender leurs évolutions. Pour autant, ce capital informationnel est encore trop peu exploité.

En effet, les données sont valorisées principalement pour leur utilisation dans une analyse statistique a posteriori plutôt que pour mesurer objectivement des indicateurs de performance et éclairer les ajustements des politiques publiques locales.Or, la technologie devrait accompagner une prise de décision ancrée dans le réel, permettant au management territorial de s’appuyer sur des indicateurs de performance objectifs.

Le concept de Five Minute City à Vancouver, où le nécessaire se trouve dans un ‘‘rayon de cinq minutes’’, se décline en 20-Minute Neighbourhood à Melbourne, 20-Minute Living à Portland, et ville quart d’heure à Paris. Il impose le local comme échelon répondant aux préoccupations citoyennes sur l’habitat, les finances publiques, la sécurité, les conditions de travail, l’accès aux services publics (transport, éducation, loisirs). Restructurer le paysage urbain est une entreprise difficile qui ne peut se priver d’informations granulaires, rigoureuses.

L’objectif est de mieux accompagner les responsables politiques en capitalisant sur une connaissance précise du terrain et des enjeux, afin que les jugements nuancés et proprement humains soient rendus en pleine connaissance des faits. Finalement, il s’agit d’utiliser la science des données où elle supplante l’humain, et de se fier à l’humain où il dépasse l’outil digital.

Parfois dévoyée et perçue justement avec méfiance, la donnée ne serait-elle pas la bonne maille de ce nouveau « pacte jacobin » au service d’une meilleure articulation entre les différents niveaux de l’action publique ?

La donnée ne doit en effet pas être au service d’un gouvernement dogmatique que les chiffres auraient libéré des questionnements moraux et politiques. Loin d’un “gouvernance par les nombres” [6], de “la fin du politique“ [7], ou de l’application béate des règles de compatibilité du privé, la donnée est ici au service d’une nouvelle alliance entre l’ambition politique et son impact sur le terrain. Cette granularité d’analyse agit alors comme un gouvernail au service d’un cap politique. Il ne s’agit pas de réduire le réel au calcul ou de contraindre le politique à des règles de gestion du New public management (cette idéologie des années soixante-dix visant à gérer les affaires publiques comme dans une entreprise privée) [8] mais bien de réconcilier les chiffres et la décision. La donnée doit alimenter une ”aventure calculée” [9] ne contestant ni le hasard, ni l’intuition politique, mais contraignant l’incertitude.

Une nouvelle stratégie : la donnée d’intérêt territorial (DiT)

Les enjeux de maîtrise du territoire et d’impact mesurable grâce aux outils technologiques sont particulièrement tangibles à l’échelle des collectivités territoriales (CTs). Par ailleurs, le pouvoir législatif français a ré-affirmé, via la loi du 21 février 2022, dite loi 3DS (différenciation, décentralisation, déconcentration et simplification), son souhait de parfaire la décentralisation territoriale, misant sur une plus grande proximité entre les décideurs et les actions concrètes. Il s’agit en effet de pouvoir outiller les prises de décisions des CTs pour conforter leurs compétences propres dans les secteurs où les données sont nombreuses comme les transports, la santé, l’urbanisme, la cohésion sociale ou encore la transition écologique.

Redonner le contrôle de la donnée locale aux CTs est nécessaire à la décentralisation de la décision mais cela cela doit s’accompagner d’une gouvernance stricte de la donnée. Les individus ont des inquiétudes justifiées quant à la protection et au bon usage des informations collectées. Les sources de données, souvent très riches, peuvent encourager des analyses imprévues, dévoyées, voire abusives, lourdes de conséquences sur la confiance des citoyens en l’institution. Le cadre légal français est à ce titre exemplaire puisqu’il régule depuis 1978 la tension entre ouverture des données et protection des libertés [10]. Ce cadre peut être accompagné d’outils et d’instances locales pour une exploitation raisonnée de la DiT. Au-delà des tableaux excel et des powerpoint à l’alimentation chronophage, il faut équiper les acteurs en charge de la protection des données au sein de la CT, tels que les Délégués à la Protection des Données (DPO) et les Responsables de la Sécurité des Systèmes d’Information (RSSI) [11]. Finalement, la mise en œuvre d’une gouvernance des données (sécurité, auditabilité, traçabilité, gestion des droits, etc.) doit en permettre un usage responsable.

Prenons l’exemple des maires qui n’ont aujourd’hui pas ou peu de visibilité quantitative sur l’efficacité des services publics géré par des Délégataires de Services Publics (DSP) au sein de leur territoire. L’agrégation des données des DSP peut leur apporter une vision détaillée du “quotidien“ via un système d’information local et ouvert (pouvant être interoperable avec l’échelon central), faisant converger les politiques publiques autour d’une compréhension fidèle et rigoureuse du terrain. Pour assurer la protection des données, chaque vue de commune au sein d’une métropole doit être restreinte aux personnes accréditées. A fortiori, les données (production de déchets, attractivité, service publics, transport…) d’une CT ne devraient pas être accessibles par la commune voisine.

En somme, un véritable cockpit municipal est nécessaire afin de centraliser des sources gigantesque d’information, d’analyser les données en temps réel, de simuler différents scenarii, d’alerter les décideurs, et de gérer les permissions d’accès. C’est précisément ce processus métier que la plateforme Foundry, développée par Palantir, supporte. Avec cet outil:

  • La CT a le pouvoir de rendre les données intelligibles par un public exigeant, les maires, les élus, président d’agglomération et leurs équipes.
  • La CT peut fournir des arguments transparents pour appuyer leurs propositions politiques, prouver leurs bilans, mieux servir leurs électeurs.
  • Un système de permission auditable peut être déployé exigeant une mise en application stricte de la protection des données et des individus, tout en garantissant que les CTs restent les seuls propriétaires des données.

En devenant préscriptrice de la donnée territoriale, la CT peut mettre en oeuvre et exiger la transparence aux DSP au sein d’écosystèmes de confiance métropolitains afin de mieux piloter leur performance et ainsi rééquilibrer le rapport de force.

Une nouvelle organisation humaine : la collectivité territoriale digitale

Si l’idée d’une collectivité territoriale digitale est séduisante et dans l’air du temps, elle doit être couplée à une finalité concrète et à des moyens de mise en œuvre. Les CTs doivent donc ré-internaliser certaines compétences car le jugement et l’expertise humains seront toujours indispensables. Datascientist, Data Protection Officer, Data Chiefs Officers sont autant de métiers au service de l’intérêt général dont le rôle est de servir de catalyseur entre agents, services, directions, élus et citoyens.

Malheureusement, les outils actuels (fusion de tableaux sur excel, représentation de donnée sur powerpoint) occupent les agents sur des tâches à faible valeur ajoutée, privilégiant la récupération des données à leur analyse. Pourtant une approche scientifique permet de croiser les données, de les interroger et de les questionner ; confrontant l’intuition humaine à une représentation systématique du monde. Ces intelligences complémentaires peuvent être exploitées sur des outils intuitifs et réversibles pour définir, mettre en oeuvre et accompagner les projets de villes des intelligences.

La donnée pour mieux appréhender les dynamiques territoriales

Les manageurs territoriaux font face à des situations complexes et ont besoin d’enrichir leur action à partir de données de terrain valorisées pour piloter des politiques locales réactives (de l’urbanisme aux mobilités, de la fiscalité locale au développement économique, de la prévention à la sécurité publique, de la gestion budgétaire à la transition écologique).

Foundry est utilisée par une très grande variété d’organisations et d’entreprises privées pour connecter l’information aux opérations. Les cas d’usages mis en œuvre grâce aux fonctionnalités de la plateforme sont divers et vont de la gestion de chaines logistiques pour des multinationales, à la maintenance préventive et prédictive de l’A350 pour Airbus. Foundry comprend une suite d’outils qui peuvent spécialement adaptés à la gestion des données liées aux déchets par une organisation publique comme une Métropole.

L’exemple du traitement des déchets

La politique des déchets dépend de la traduction de données technique en objet métier connectés tels que :

  • la gestion des conteneurs,
  • les pesées des déchets,
  • l’organisation des tournées de collecte,
  • la géographie des infrastructures territoriales (hôpitaux, établissements scolaires, déchèteries mobiles, …)
  • la localisation des décharges sauvages,
  • l’administration du personnel,
  • l’encadrement des flux de transfert,
  • les normes propre à la commune.

La figure ci-dessousreprésente toutes les sources de donnée utilisées pour mener à bien la gestion des déchets. Ces données sont connectées : l’itinéraire des collectes dépend de la cartographie locale; l’utilisation des stations de tri varie selon le calendrier des collectes; un changement décidé au niveau du nombre de conteneurs par bâtiment peut avoir des répercussions sur tous les maillons de la chaîne opérationnelle.

Cette vision de l’ontologie d’une collectivité territoriale traduit l’aspect technique (systèmes sources, formats de fichier etc.) en un ensemble de concepts métier (commune, outil industriel, pesée etc.) plus compréhensible pour les équipes métier. Cette ontologie permet d’intégrer et de croiser à la fois des flux de données CT, prestataires, Open Source et données produites manuellement.

Foundry permet de transformer les données brutes afin de rendre compte des interdépendances et de fournir une image à la fois granulaire et fidèle de la réalité complexe du terrain. Une copie numérique du réseau opérationnel (que Palantir dénomme l’ontologie) est exploitable en temps réel sur la plateforme, elle permet d’examiner l’état des lieux, de tester différentes décisions et d’évaluer leur performance. La figure ci-dessus se concentre sur les objets de l’ontologie (soit les entités physiques et abstraites qui constituent la copie digitale du système réel), présentant leurs interdépendances.

Avec le tour de controle de Palantir Foundry, les données auparavant dispersées peuvent être fédérées, offrant aux municipalités une vue complète et personnalisable. Pour la gestion des déchets, cela signifie que la commune peut enfin disposer :

  • vue à 360 degrés des entités de l’administration (par exemple, centres de tri, usines de récupération d’énergie, centres de valorisation organique, centres de transport et de manutention), aidant à prendre des décisions plus intelligentes et plus rapides,
  • de la mise en place d’alertes pour garantir la qualité de la donnée (provenant des outils industriels, des délégataires de services publics, etc.) et construire des fondations solides et fiables
  • d’une comparaison des pesées pour garantir la cohérence entre les données (pesées) enregistrées sur les outils industriels et les données fournies par le DSP sur les tonnages qu’ils ont collectés
  • d’un indicateur qualité et prix pour communiquer au grand public, qui présente notamment le tonnage des déchets produits et leur traitement. Le but est d’automatiser la collecte et la génération de ces indicateurs qui aujourd’hui prennent beaucoup de temps, et de capitaliser automatiquement des productions d’une année sur l’autre.
  • du suivi du tonnage par Commune via une cartographie pour notamment calculer et suivre des indicateurs par commune (tonnages, dotations bacs/sacs) et autres éléments géo-localisables (Collecte en points d’apport volontaire, Dépôts Sauvages etc.) afin d’évaluer rapidement les zones où concentrer les efforts d’action (agents de contrôle) et de prévention
  • d’une application de Contrôle Mobile terrain

La donnée au service de la ville des intelligences

La transformation digitale engendre souvent une multiplication des outils métiers, une prolifération de capteurs et de données urbaines ouvertes, semi ouverte ou fermées. A cela s’ajoute une sectorisation de chaque outil sur un métier donné, renforçant l’effet de silos existants au sein des différentes directions de la CT. Foundry agit comme un meta Système d’Information (SI) Décisionnel permettant de centraliser l’ensemble des outils de supervision, des applicatifs, des référentiels et des données de la CT. La mise en oeuvre de Foundry a confirmé l’intérêt de pouvoir disposer d’un SI décisionnel regroupant les informations et créant du lien entre métiers et services via une plateforme transverse et unique.

Une ontologie globale de la CT peut-être crée à partir d’interrelations et d’interdépendances, accessibles via le digital et jusque-là ignorées. L’ontologie de la ville vivante s’émancipe des logiques propriétaires et des décisions déconnectées. Elle réduit le poids nécessaire à la synthétisation mentales des données via vue unifiée, et encourage l’émergence de nouvelles idées, approches et réalisations. L’expert enrichit désormais le généraliste ; le local fertilise le central. Cette démarche concrète, mêlant données et humain, est plus que jamais au service de la transparence, de la rigueur et de la clarté du vivant ; elle sert, met en évidence et révèle les villes des intelligences.

Auteurs

Alexandre Papaemmanuel, responsable secteur public, Palantir France
avec les contributions de Manon Revel, doctorante à l’Institute for Data, Systems and Society du MIT

Could digital infrastructures thoughtfully deployed make cities more sustainable, responsible, efficient, and pleasant? This is the idea smart cities initiators have been pursuing for the past 15 years [1]. From Marseille to Paris, via Dijon, Lyon, Chartres, Toulouse, Grenoble, Nice, Angera, and Rennes, French municipalities are striving to collect data in order to better understand and solve urban problems.

Urban expansion and population densification are disrupting the organization of territories. More and more, the digitization of daily life is resulting in the proliferation — and availability — of data. This offers an opportunity to discover new urban patterns. In San Francisco, for instance, parking spot sensors help to regulate parking and traffic [2]. In the western French city of Angers, connected street lights use sensors to control neighborhood lighting and reduce energy consumption [3].

Data generated by these physical and connected [4] networks is diverse [5]. They offer an unprecedented source of information to refine our understanding of complex surroundings and to understand their evolution. Yet, this informational capital remains underused.

Indeed, data is valued mostly for its use in a posteriori statistical analysis rather than to objectively measure performance indicators and inform adjustments to local public policies. However, technology should accompany decision-making, enabling local government authorities to rely on objective performance indicators.

The concept of Five Minute City in Vancouver, where everything you need is within a “five-minute radius,’” has been extended to 20-Minute Neighbourhood in Melbourne, 20-Minute Living in Portland, and a Quarter-Hour City in Paris. As a result, policies about housing, public finances, safety, working conditions and access to public services (transport, education, leisure) are locally re-focused. Restructuring the urban landscapes is a difficult undertaking that requires granular, rigorous data.

The objective is to better support political leaders so that they can leverage precise data when making decisions. This amounts to combining the best of human intention with digital tools to improve decisions that affect our cities.

While data is sometimes misused or distrusted, the focus should be on how to manage decision process at the more relevant level: how to think global and act local?

A dogmatic use of data cannot be substituted for moral and political questioning. Far from “governance by numbers” [6], “the end of politics” [7], or the blissful application of the private sector’s compatibility rules, data here is at the service of a new alliance between political ambition and its impact on the ground. This granularity of analysis serves as a guide that can reconcile numbers and political decisions. It is not a question of reducing local management to calculations or of constraining politics to new public management rules (a 1970s ideology aimed at managing public affairs like a private company) [8] but reconciling the figures with decisions. Data must feed a “calculated adventure” [9] that does not challenge either chance or political intuition, but constrains uncertainty.

A New Strategy: Data of local interest (DLI)

The challenge of measuring the impact of local governance is tangible at the level of local authorities (LAs). On 21 February 2022, the French legislature reaffirmed the 3Ds law (differentiation, decentralization, de-concentration and simplification) to perfect territorial decentralization, focusing on greater proximity between decision-makers and concrete actions. Its aim is to empower LAs to strengthen their decision-making ability in sectors where there is a lot of data, such as transport, health, urban planning, social cohesion, and even ecological transition.

Giving back control of local data to the LAs is necessary for the decentralization of decision-making, but this must be backed by rigorous data governance. Citizens have justified concerns regarding the protection and proper use of information collected. Data sources are often very rich, and can encourage unforeseen, misguided, or even abusive analyses, with serious consequences for citizens’ trust in the institution. The French legal framework is exemplary in this respect since it has regulated the tension between data openness and protection of liberties since 1978 [10]. This regulatory framework can guide tools and local authorities to responsibly use data of local interest (DLI). Beyond the time-consuming excel tables and powerpoints, it is necessary to empower those in charge of data protection within the LAs, such as Data Protection Officers (DPO) and Information Systems Security Officers (ISSO) [11]. Finally, the implementation of data governance (security, auditability, traceability, rights management, etc.) must allow responsible use.

Let’s take the example of mayors who currently have little or no quantitative visibility into the effectiveness of public services delivered within their territory. The aggregation of data can provide them with a detailed vision of “everyday life” via a local and open information system (which can be interoperable with the central level) so that public policies are more rooted in reality and understanding. To ensure data protection, each municipality’s view within a metropolis must be restricted to the accredited persons and the data (waste production, attractiveness, public services, transportation) should not be accessible by the neighboring municipality.

In sum, a local operating system is needed to centralize very large sources of information, analyze data in real time, simulate different scenarios, alert decision-makers, and manage access permissions. It is precisely this business process that the Palantir Foundry platform was built to support.

With this tool:

  • LAs can have the ability to interpret data in response to inquiries by the public, mayors, elected officials, county presidents and their teams.
  • LAs can provide transparent reasoning to support their policy proposals, prove their track records, and better serve their constituents.
  • An auditable permission system can be deployed requiring strict enforcement of data and individual protection, while ensuring that LA’s remain the sole owners of the data.

By being in charge of local data, the LAs can implement and require transparency within trusted metropolitan ecosystems in order to better manage their performance and thus rebalance the power relationship with centralized states.

A New Organization: The digital local authority

If the idea of a digital local authority is attractive and aligned with the times, it must focus on tangible and realistic implementations. LAs must develop specific skills to intertwine data science and human expertise. Data-scientists, Data Protection Officers, Data Chiefs Officers are all professions serving the pubic good, catalyzing interactions between public workers, elected officials, and citizens.

Unfortunately, the current tools (merging tables on Excel, representing data on PowerPoint) focus administrators on low added value tasks, giving priority to data recovery over data analysis. A scientific approach, on the other hand, makes it possible to cross-reference and question the data, converging human intuition with a systematic representation of the world. These complementary intelligences can be used intuitively and dynamically to define, implement, and support smart city projects.

Data to Better Understand Local Dynamics

Local managers, faced with complex situations, need data to better inform their actions (e.g., urban planning, transport, local taxation, economic development, public safety, budget management, and ecological transition).

Foundry is used by a wide variety of organizations and private companies to connect information to operations. The use cases implemented, thanks to the platform’s functionality, are diverse and range from supply chain management for multinational corporations to predictive maintenance for Airbus’ A350 aircraft. Foundry includes a suite of tools that can be specifically tailored to waste data management for a public organization like a metropolis.

Waste Treatment: An example

Waste policy depends on the translation of technical data into connected business objects, such as:

  • Container management;
  • Weighing of waste;
  • Scheduling waste collection;
  • Location and infrastructure of buildings (e.g., hospitals, schools, mobile waste collection centers);
  • Illegal dumping sites;
  • Waste management personnel and tasking;
  • Waste transfer flows; and
  • City standards and local policy.

The figure below represents all the data sources used to carry out waste management. The data is connected: the collection route depends on the local mapping; the use of the sorting stations varies according to the collection schedule; a change in the number of containers per building can have repercussions on all links in the operational chain.

This vision of the ontology of a local authority translates technical aspects (source systems, file formats etc.) into a set of business concepts (municipality,, industrial tool, weighing etc.) that are more understandable for business teams. This ontology makes it possible to integrate and cross-reference data flows from the LA, service provider, open source, and manually-produced data.

Foundry enables raw data to be transformed to capture interdependencies and provide a granular, accurate picture of the complex reality on the ground. A digital twin of the operational network (which Palantir calls the ontology) can be used in real-time on the platform to examine the state of affairs, test different decisions, and evaluate their performance. The figure above focuses on ontology objects (i.e., the physical and abstract entities that constitute the digital copy of the real system) and outlines their connectedness.

With Palantir Foundry’s dashboard, previously dispersed data can be federated, giving municipalities a comprehensive and customizable view. For waste management, this means the municipality can finally have :

  • 360-degree view of entities across the administration (e.g., sorting centers, waste-energy plants, organic recovery centers, transport and handling centers), helping drive smarter, faster decisions;
  • Real-time quality and operational alerts from industrial tools, public service delegates, etc., to build solid and reliable data foundations;
  • Ability to compare and validate consistency between tonnages collected according to digital tooling and data provided by the administration;
  • Price and quality indicators that can be communicated and understood by the public, noting tonnage of waste produced and its treatment. Ultimately, the goal would be to automate these indicators and capitalize production from one year to the next;
  • Tools to track tonnage, bin and bag allocation, collection at voluntary drop-off areas, and other geo-locatable elements to calculate and monitor indicators by municipality in order to quickly assess, react, and take preventative actions;
  • A mobile-enabled application for civil servants.

Data for Intelligent Cities

Digital transformation often leads to a multiplication of business tools, a proliferation of sensors and open, semi-open or closed urban data. In addition to this, each tool is sectorized for a given business, reinforcing existing silos within the various LA departments. Foundry acts as a meta Decision Information System to centralize all LA supervision tools, applications, repositories, and data. The use of Foundry in various corporations and governments has confirmed the value of a cross-functional platform that centralizes information and creates a link between businesses and services via a single cross-functional platform.

A global ontology for LAs can be created digitally from interrelations and interdependencies hitherto ignored. The living city embraces its dynamism and by-passes disconnected decisions and proprietary logics. It reduces the burden of mentally synthesizing data by bringing data together via a unified view and encourages new collaborations and ideas to flourish. Experts can now work hand in hand with the decision-maker, helping LAs to understand and better serve their communities, to build and improve smart cities.

Authors

Alexandre Papaemmanuel, Public Sector Strategy Partner, Palantir France
with contributions by Manon Revel, PhD student at MIT’s Institute for Data, Systems and Society

[1] https://www.verdict.co.uk/smart-cities-timeline/
[2] Bilal, M., Usmani, R.S.A., Tayyab, M., Mahmoud, A.A., Abdalla, R.M., Marjani, M., Pillai, T.R. and Targio Hashem, I.A., 2020. Smart cities data: Framework, applications, and challenges. Handbook of smart cities, pp.1–29.
[3] https://www.tactis.fr/smart-city-exemples-france/
[4] Âge, revenus, CSP, niveau de diplôme, type de logement, composition des ménages, etc.
[5] Le transport, l’éclairage public, l’énergie, les déchets, etc.
[6] Alain Supiot. La gouvernance par les nombres. Cours au Collège de France (2012–2014, Fayard, 2015, 512 p.,
[7] Pierre Birnbaum, La fin du politique,
[8] https://www.britannica.com/topic/governance/The-new-public-management
[9] Pierre Massé, Le Plan ou l’Anti-Hasard,
[10] https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000886460/
[11] Le DPO est le membre d’une organisation mandaté pour veiller au respect du règlement européen sur la protection des données (RGPD) au sein de l’organisme. Le RSSI quant a lui est en charge de la sécurité des systèmes d’information. Leurs nominations sont obligatoires ou encouragées selon les secteurs. https://www.cnil.fr/fr/devenir-delegue-la-protection-des-donnees


Foundry au service de la décentralisation, différenciation, déconcentration de la donnée was originally published in Palantir Blog on Medium, where people are continuing the conversation by highlighting and responding to this story.

AI Generated Robotic Content

Recent Posts

Racing into the future: How AWS DeepRacer fueled my AI and ML journey

In 2018, I sat in the audience at AWS re:Invent as Andy Jassy announced AWS…

8 hours ago

The graph database arms race: How Microsoft and rivals are revolutionizing cybersecurity

The fast-rising pace of attacks is driving a graph database arms race across leading cybersecurity…

9 hours ago

Pokémon Cards Are Back—No Binders Needed

Pokémon Trading Card Game Pocket reinvents the gacha game for a Pikachu-loving audience. It’s attracted…

9 hours ago

Researchers explore how to bring larger neural networks closer to the energy efficiency of biological brains

The more lottery tickets you buy, the higher your chances of winning, but spending more…

9 hours ago

Building Your First Chatbot: A Hands-On Tutorial with Open-Source Tools

A chatbot is a computer program that can talk to people.

1 day ago

Effortless robot movements

Humans and animals move with remarkable economy without consciously thinking about it by utilizing the…

1 day ago