Des ingénieurs de l’Institut de technologie de Tokyo (Tokyo Tech) ont démontré une approche informatique basic pour améliorer la façon dont les classificateurs d’intelligence artificielle, tels que les réseaux de neurones. Cependant, les données de development sont difficiles et coûteuses à acquérir. presque sans frais supplémentaires.
Ces derniers temps. naturelles et des machines a gagné du terrain. Alors que notre société devient de as well as en as well as avide de données, les scientifiques, les ingénieurs et les stratèges espèrent de additionally en as well as que les informations supplémentaires que nous pouvons tirer de cette surveillance omniprésente amélioreront la qualité et l’efficacité de nombreux processus de creation, ce qui se traduira également par une meilleure durabilité.
Le monde dans lequel nous vivons est incroyablement complexe. Certains sont naturels, comme la quantité de lumière solaire, l’humidité ou le mouvement d’un animal, tandis que d’autres sont artificiels, par exemple. Ce que ces variables ont toutes en commun, c’est qu’elles évoluent au fil du temps. et que des informations significatives devraient être contenues dans leurs changements incessants. Dans de nombreux cas, les chercheurs sont intéressés à classer un ensemble de ailments ou de cases prédéterminées en fonction de ces changements temporels, afin de réduire la quantité de données et de faciliter leur compréhension. Par exemple. des augmentations de la air pollution, and so forth.
comme l’humidité. Dans de tels cas, il est probable de transmettre chaque lecture individuelle by way of un réseau sans fil à un serveur cloud, où l’analyse de grandes quantités de données agrégées a lieu. Cependant. comme les accélérations suivant le comportement d’un animal ou l’activité quotidienne d’une personne. Étant donné que de nombreuses lectures par seconde sont souvent nécessaires, il devient peu pratique ou extremely hard de transmettre les données brutes sans fil, en raison des constraints de l’énergie disponible, des prices de données et, dans les endroits éloignés, de la bande passante. Pour contourner ce problème. De manière générale, l’idée est d’envoyer sans fil non pas les enregistrements bruts, mais les résultats d’un algorithme de classification recherchant des disorders ou des scenarios d’intérêt particulières, résultant en une quantité beaucoup furthermore limitée de données de chaque nœud.
Il y a cependant de nombreux défis à relever. Certains sont physiques et découlent de la nécessité d’installer un bon classificateur dans ce qui est généralement un espace et un poids plutôt limités, et de le faire fonctionner souvent avec une très petite quantité d’énergie afin d’obtenir une longue durée de vie de la batterie. « De bonnes alternatives d’ingénierie à ces exigences émergent chaque jour, mais le véritable défi qui retient de nombreuses options du monde réel est en fait un autre. La précision de la classification n’est souvent tout simplement pas suffisante, et la société a besoin de réponses fiables pour commencer à faire confiance à une technologie », déclare le Dr Hiroyuki Ito, responsable de l’unité Nano Sensing où l’étude a été menée. Mais, le moreover souvent. Par exemple, en ce qui concerne la surveillance du comportement du bétail, pour l’acquérir, les ingénieurs doivent passer du temps dans les fermes, instrumenter les vaches individuelles et demander à des authorities d’annoter patiemment leur comportement sur la base de séquences vidéo “, ajoute le co-auteur Dr Korkut Kaan Tokgoz, anciennement membre de la même unité de recherche et maintenant avec l’Université Sabanci en Turquie.
En raison du fait que les données de formation sont si précieuses, les ingénieurs ont commencé à chercher de nouvelles façons de tirer le meilleur parti d’une quantité de données, même assez limitée, disponible pour previous des dispositifs d’IA de pointe. Une tendance importante dans ce domaine consiste à utiliser des tactics connues sous le nom d'”augmentation des données”, dans lesquelles certaines manipulations, jugées raisonnables sur la foundation de l’expérience. “Par exemple, dans nos travaux précédents. et avons constaté que les données supplémentaires générées de cette manière pouvaient réellement améliorer les performances de la classification comportementale”, explique Mme Chao Li, doctorante et auteure principale de l’étude. “Cependant. De in addition, dans des predicaments réelles, il y a en fait deux problèmes, liés mais distincts. Le premier est que la quantité globale de données d’entraînement est souvent limitée. Le next est que certaines cases ou problems se produisent beaucoup moreover fréquemment que d’autres, ce qui est inévitable. Par exemple, les vaches passent naturellement beaucoup additionally de temps à se reposer ou à ruminer qu’à boire. Pourtant, mesurer avec précision les comportements les moins fréquents est tout à fait essentiel pour juger correctement de l’état de bien-être d’un animal. Une vache qui ne boit pas succombera sûrement., ajoute-t-elle.
Les recherches informatiques menées par les chercheurs de Tokyo Tech et initialement ciblées sur l’amélioration du suivi du comportement des bovins offrent une solution attainable à ces problèmes. La première est connue sous le nom d’échantillonnage, et consiste à extraire des “bribes” de séries temporelles correspondant aux disorders à classer toujours à partir d’instants différents et aléatoires. Le nombre d’extraits extraits est ajusté avec soin. qu’ils soient courants ou rares. Il en résulte un ensemble de données additionally équilibré, ce qui est nettement préférable comme foundation pour former tout classificateur tel qu’un réseau de neurones. Parce que la procédure est basée sur la sélection de sous-ensembles de données réelles, elle est sûre en termes d’éviter la génération des artefacts qui peuvent provenir de la synthèse artificielle de nouveaux extraits pour compenser les comportements moins représentés. La seconde est connue sous le nom de données de substitution et implique une procédure numérique très robuste pour générer, à partir de n’importe quelle série chronologique existante, un nombre quelconque de nouvelles qui préservent certaines caractéristiques clés, mais qui sont complètement non corrélées. “Cette combinaison vertueuse s’est avérée très importante, car l’échantillonnage peut entraîner de nombreuses duplications des mêmes données. Les données de substitution ne sont jamais les mêmes et évitent ce problème, qui peut affecter très négativement le processus de formation. Et un factor clé de ce travail est que l’augmentation des données est intégrée au processus de development, de sorte que différentes données sont toujours présentées au réseau tout au extensive de sa development », explique M. Jim Bartels, co-auteur et doctorant à l’unité.
Les séries temporelles de substitution sont générées en brouillant complètement les phases d’un ou plusieurs signaux, les rendant ainsi totalement méconnaissables lorsque leurs changements dans le temps sont pris en compte. Cependant, la distribution des valeurs, l’autocorrélation et, s’il y a plusieurs signaux, l’intercorrélation, sont parfaitement préservées. “Dans un autre travail précédent, nous avons constaté que de nombreuses opérations empiriques telles que l’inversion et la recombinaison des séries chronologiques contribuaient en fait à améliorer la formation. Comme ces opérations modifient le contenu non linéaire des données, nous avons par la suite estimé que le form de caractéristiques linéaires qui sont conservées pendant la substitution génération sont probablement la clé de la performance. explique encore Mme Chao Li. “La méthode des séries temporelles de substitution provient d’un tout autre domaine, à savoir l’étude de la dynamique non linéaire dans des systèmes complexes comme le cerveau, pour lesquels de telles séries temporelles sont utilisées pour aider à distinguer le comportement chaotique du bruit. En rassemblant nos différentes expériences. ajoute le Dr Ludovico Minati, deuxième auteur de l’étude et également membre de la Nano Sensing Unit. “Cependant. Dans tous les cas, l’élégance de la proposition méthode est qu’elle est assez essentielle, simple et générique. ajoute-t-il.
A l’issue de cet entretien. à laquelle elle était initialement destinée et sur laquelle l’unité mène des recherches pluridisciplinaires en partenariat avec d’autres universités et entreprises. permettant une détection précoce de la maladie et donc réellement améliorant non seulement le bien-être des animaux mais aussi l’efficacité et la durabilité de l’élevage, ” conclut le Dr Hiroyuki Ito.