|
所属 |
工学教育研究部 工学科情報通信プログラム担当 |
|
職名 |
教授 |
|
ホームページ |
|
|
外部リンク |
|
|
関連SDGs |
学位 【 表示 / 非表示 】
-
博士(工学) ( 2007年3月 大阪市立大学 )
-
修士(工学) ( 2004年3月 大阪市立大学 )
-
Master of Information Science ( 1999年5月 ヤンゴンコンピュータ大学大学院 (ミャンマー) )
-
Bachelor of Science (Hons.) (Mathematics) ( 1995年5月 ヤンゴン大学(ミャンマー) )
研究キーワード 【 表示 / 非表示 】
-
画像処理とその応用
-
工場での作業の見える化
-
高度な画像処理技術やAI技術を活用した 研究開発
-
自立生活を支援するための高齢者24時間見守りシステム
-
ICTを活用した牛のモニタリングシステム
-
知覚情報処理
論文 【 表示 / 非表示 】
-
AI-powered visual E-monitoring system for cattle health and wealth 査読あり
Aung Si Thu Moe, Pyke Tin, M. Aikawa, I. Kobayashi, Thi Thi Zin
Smart Agricultural Technology 12 2025年12月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(学術雑誌) 出版者・発行元:Smart Agricultural Technology
The livestock industry is experiencing a major transformation through the integration of artificial intelligence (AI) and advanced visual e-monitoring technologies. This study presents an AI-powered cattle health monitoring system that combines real-time computer vision, edge computing, and mobile applications to enhance animal welfare and farm productivity. The system employs a multi-camera setup, comprising RGB, RGB-D, and ToF depth cameras, strategically deployed across four functional zones of a cattle barn: the milking parlor, return lane, feeding area, and resting space. Through integrated deep learning algorithms, the platform performs key health-related tasks, including ear-tag, body-based, and face-based cattle identification, body condition scoring (BCS), lameness detection, feeding time estimation, and real-time localization. A farm-side desktop application processes live video streams from 22 cameras using multiprocessing, maintaining an average latency of 0.62 s per frame per camera. Captured data are stored in a structured MySQL database and accessed via a RESTful API by a user-side mobile application developed using Flutter and Clean Architecture. Experimental evaluation under continuous 24-hour operation demonstrated the system's stability and effectiveness in delivering actionable insights. Cattle identification achieved high accuracies: ear-tag 94.00 %, face-based 93.66 %, body-based 92.80 %, and body-color point cloud 99.55 %. The BCS prediction and lameness detection modules achieved average accuracies of 86.21 % and 88.88 %, respectively. Feedback from veterinarians and farm personnel during pilot testing confirmed its usability and practical relevance. While current limitations include computational demands and the need for improved model robustness, the proposed system establishes a scalable, non-invasive framework for intelligent livestock monitoring. It aligns with broader Green and Digital Transformation (GX and DX) initiatives toward sustainable smart farming practices.
-
Cho Nilar Phyo, Tunn Cho Lwin, Pyae Phyo Kyaw, E. Kino, T. Ikenoue, Pyke Tin, Thi Thi Zin
ICIC Express Letters Part B Applications 16 ( 8 ) 879 - 886 2025年8月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(学術雑誌) 出版者・発行元:Icic Express Letters Part B Applications
Fetal well-being monitoring system is essential for ensuring healthy labor outcomes. One of the non-invasive methods for assessing fetal health during labor and delivery is by analyzing fetal heart rate variability (FHRV), which can be used to predict fetal pH levels. This study compares different machine learning approaches for predicting fetal pH levels based on FHRV data collected during labor and delivery. The dataset used in this study includes FHRV signals together with corresponding umbilical cord blood gas measurements such as pH, which are used to train and evaluate the models. This study applies several machine learning algorithms and evaluates their performance using key metrics such as sensitivity, specificity, precision, F1-score, and accuracy. These metrics help to determine which model is the most accurate predicting fetal pH levels based on FHRV characteristics. The results reveal that the support vector machine (SVM) model outperforms with the accuracy of 81.67%, better than the other algorithms in predicting fetal pH levels. The findings of this study aim to contribute to the development of more reliable and accurate prediction models for assessing fetal well-being during labor, enhanced clinical decision-making, allowing for timely interventions and improved healthy labor outcomes for both the mother and the baby.
-
Pyae Phyo Kyaw, Thi Thi Zin, Pyke Tin, M. Aikawa, I. Kobayashi
Proceedings of SPIE the International Society for Optical Engineering 13701 2025年7月
担当区分:責任著者 記述言語:英語 掲載種別:研究論文(国際会議プロシーディングス) 出版者・発行元:Proceedings of SPIE the International Society for Optical Engineering
Body Condition Score (BCS) of dairy cattle is a crucial indicator of their health, productivity, and reproductive performance throughout the production cycle. Recent advancements in computer vision techniques have led to the development of automated BCS prediction systems. This paper proposes a BCS prediction system that leverages 3D point cloud surface features to enhance accuracy and reliability. Depth images are captured from a top-view perspective and processed using a hybrid depth image detection model to extract the cattle’s back surface region. The extracted depth data is converted into point cloud data, from which various surface features are analyzed, including normal vectors, curvature, point density, and surface shape characteristics (planarity, linearity, and sphericity). Additionally, Fast Point Feature Histograms (FPFH), triangle mesh area, and convex hull area are extracted and evaluated using three optimized machine learning models: Random Forest (RF), K-Nearest Neighbors (KNN), and Gradient Boosting (GB). Model performance is assessed using different tolerance levels and error metrics, including Mean Absolute Error (MAE) and Mean Absolute Percentage Error (MAPE). Among the models, Random Forest demonstrates the highest performance, achieving accuracy rates of 51.36%, 86.21%, and 97.83% at 0, 0.25, and 0.5 tolerance levels, respectively, with an MAE of 0.161 and MAPE of 5.08%. This approach enhances the precision of BCS estimation, offering a more reliable and automated solution for dairy cattle monitoring and health management.
DOI: 10.1117/12.3070481
-
Minimizing Resource Usage for Real-Time Network Camera Tracking of Black Cows 査読あり
Aung Si Thu Moe, Thi Thi Zin, Pyke Tin, M. Aikawa, I. Kobayashi
Proceedings of SPIE the International Society for Optical Engineering 13701 2025年7月
担当区分:責任著者 記述言語:英語 掲載種別:研究論文(国際会議プロシーディングス) 出版者・発行元:Proceedings of SPIE the International Society for Optical Engineering
Livestock plays a crucial role in the farming industry to meet consumer demand. A livestock monitoring system helps track animal health while reducing labor requirements. Most livestock farms are small, family-owned operations. This study proposes a real-time black cow detection and tracking system using network cameras in memory and disk constrained environments. We employ the Detectron2 Mask R-CNN ResNeXt-101 model for black cow region detection and the ByteTrack algorithm for tracking. ByteTrack tracks multiple objects by associating each detection box. Unlike other deep learning tracking algorithms that use multiple features such as texture, color, shape, and size. ByteTrack effectively reduces tracking ID errors and ID switches. Detecting and tracking black cows in real-time is challenging due to their uniform color and similar sizes. To optimize performance on low-specification machines, we apply ONNX (Open Neural Network Exchange) to the Detectron2 detection model for optimization and quantization. The system processes input images from network cameras, enhances color during preprocessing, and detects and tracks black cows efficiently. Our system achieves 95.97% mAP@0.75 detection accuracy and 97.16 % in daytime video and 94.83 % in nighttime accuracy of tracking are effectively tracks individual black cows, minimizing duplicate IDs and improving tracking after missed detections or occlusions. The system is designed to operate on machines with minimal hardware requirements.
DOI: 10.1117/12.3070347
-
Pyae Phyo Kyaw, Pyke Tin, M. Aikawa, I. Kobayashi, Thi Thi Zin
Scientific reports 15 ( 21938 (2025) ) 21938 2025年7月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(学術雑誌) 出版者・発行元:Scientific Reports
Cattle health monitoring and management systems are essential for farmers and veterinarians, as traditional manual health checks can be time-consuming and labor-intensive. A critical aspect of such systems is accurate cattle identification, which enables effective health monitoring. Existing 2D vision-based identification methods have demonstrated promising results; however, their performance is often compromised by environmental factors, variations in cattle texture, and noise. Moreover, these approaches require model retraining to recognize newly introduced cattle, limiting their adaptability in dynamic farm environments. To overcome these challenges, this study presents a novel cattle identification system based on color point clouds captured using RGB-D cameras. The proposed approach employs a hybrid detection method that first applies a 2D depth image detection model before converting the detected region into a color point cloud, allowing for robust feature extraction. A customized lightweight tracking approach is implemented, leveraging Intersection over Union (IoU)-based bounding box matching and mask size analysis to consistently track individual cattle across frames. The identification framework is built upon a hybrid PointNet ++ Siamese Network trained with a triplet loss function, ensuring the extraction of discriminative features for accurate cattle identification. By comparing extracted features against a pre-stored database, the system successfully predicts cattle IDs without requiring model retraining. The proposed method was evaluated on a dataset consisting predominantly of Holstein cow along with a few Jersey cows, achieving an average identification accuracy of 99.55% over a 13-day testing period. Notably, the system can successfully detect and identify unknown cattle without requiring model retraining. This cattle identification research aims to integrate the comprehensive cattle health monitoring system, encompassing lameness detection, body condition score evaluation, and weight estimation, all based on point cloud data and deep learning techniques.
書籍等出版物 【 表示 / 非表示 】
-
(Editors) Jeng-Shyang Pan, Thi Thi Zin, Tien-Wen Sung, Jerry Chun-Wei Lin( 担当: 共著 , 範囲: Editor)
Springer 2025年2月 ( ISBN:978-981-96-1534-6 )
総ページ数:412 記述言語:英語 著書種別:学術書
Genetic and Evolutionary Computing - Proceedings of the Sixteenth International Conference on Genetic and Evolutionary Computing, August 28-30, 2024, Miyazaki, Japan (Volume 2)
-
(Editors) Jeng-Shyang Pan, Thi Thi Zin, Tien-Wen Sung, Jerry Chun-Wei Lin( 担当: 共著 , 範囲: Editor)
Springer Singapore 2025年2月 ( ISBN:978-981-96-1530-8 )
総ページ数:528 記述言語:英語 著書種別:学術書
Proceedings of the Sixteenth International Conference on Genetic and Evolutionary Computing, August 28-30, 2024, Miyazaki, Japan (Volume 1)
-
Big Data Analysis and Deep Learning Applications: Proceedings of the First International Conference on Big Data Analysis and Deep Learning (Advances in Intelligent Systems and Computing Book 744)
Thi Thi Zin (Editor), Jerry Chun-Wei Lin (Editor) ( 担当: 共編者(共編著者))
Springer 2018年6月
総ページ数:Springer 記述言語:英語
その他リンク: https://www.amazon.com/Data-Analysis-Deep-Learning-Applications-ebook/dp/B07DL46RJX
-
Genetic and Evolutionary Computing: Advances in Intelligent Systems and Computing: A New Look into Web Page Ranking Systems
Thi Thi Zin, Pyke Tin, H. Hama, T. Toriu( 担当: 共著 , 範囲: 発案、実験、考察、論文執筆)
Springer International Publishing 2014年10月
記述言語:英語 著書種別:学術書
MISC 【 表示 / 非表示 】
-
深度カメラを用いた高齢者の行動推定に関する研究
中嶋 麗文, Thi Thi Zin, 近藤 千博, 渡邊 信二
第 37 回バイオメディカル・ファジィ・システム学会年次大会 講演論文集 (BMFSA2024) 37 46 - 52 2024年12月
担当区分:責任著者 記述言語:日本語 掲載種別:研究発表ペーパー・要旨(全国大会,その他学術会議) 出版者・発行元:バイオメディカル・ファジィ・システム学会
-
RGBカメラによって観測された運動症状を用いた パーキンソン病、本態性振戦の鑑別可能性に関する研究
林田 高典, Thi Thi Zin, 杉山 崇史,酒井 克也,石井 信之,望月 仁志
第 35 回バイオメディカル・ファジィ・システム学会年次大会 講演論文集 (BMFSA2022) 2022年12月
担当区分:責任著者 記述言語:日本語 掲載種別:研究発表ペーパー・要旨(全国大会,その他学術会議) 出版者・発行元:バイオメディカル・ファジィ・システム学会
-
Tracking A Group of Black Cows Using SORT based Tracking Algorithm
Cho Cho Aye, Thi Thi Zin, M. Aikawa, I. Kobayashi
第 35 回バイオメディカル・ファジィ・システム学会年次大会 講演論文集 (BMFSA2022) 2022年12月
担当区分:責任著者 記述言語:英語 掲載種別:研究発表ペーパー・要旨(全国大会,その他学術会議) 出版者・発行元:バイオメディカル・ファジィ・システム学会
-
Artificial Intelligence Topping on Spectral Analysis for Lameness Detection in Dairy Cattle
Thi Thi Zin, Ye Htet, San Chain Tun and Pyke Tin
第 35 回バイオメディカル・ファジィ・システム学会年次大会 講演論文集 (BMFSA2022) 2022年12月
担当区分:筆頭著者, 責任著者 記述言語:英語 掲載種別:研究発表ペーパー・要旨(全国大会,その他学術会議) 出版者・発行元:バイオメディカル・ファジィ・システム学会
講演・口頭発表等 【 表示 / 非表示 】
-
Advancing Neonatal Monitoring Using Heart Rate Variability with Machine Learning Models 国際会議
Tunn Cho Lwin, Thi Thi Zin, Pyke Tin, E. Kino and T. Ikenoue
The Seventh International Conference on Smart Vehicular Technology, Transportation, Communication and Applications (VTCA 2025) (Fuzhou, Fujian, China) 2025年11月22日 Technically sponsored by Southwest Jiaotong University and Technology and Nanchang Institute of Technology
開催年月日: 2025年11月21日 - 2025年11月23日
記述言語:英語 会議種別:口頭発表(一般)
開催地:Fuzhou, Fujian, China 国名:中華人民共和国
Accurate assessment of neonatal respiratory status is critical for early intervention and improved clinical outcomes. Umbilical cord blood pressure of carbon dioxide (PCO2) is a key marker of respiratory efficiency, but its measurement requires invasive sampling. This study proposes a non-invasive, machine learning–based framework to predict abnormal PCO2 levels using fetal heart rate variability (FHRV) features. Seven HRV features were initially extracted, and Principal Component Analysis identified M, S, and entropy as the most informative for classification. Patients were divided into normal (G2) and abnormal (G1) groups based on a PCO2 threshold of 35 mmHg. To address class imbalance, oversampling was applied to the training dataset. Classification experiments with SVM (linear and Gaussian) and k-nearest neighbor (kNN) classifiers demonstrated that oversampling improved sensitivity for the minority abnormal group while maintaining high precision for the majority normal group. On the testing dataset, kNN achieved the most balanced performance, with 85% precision and 83% recall for abnormal cases. These results highlight the potential of combining HRV analysis with ma-chine learning to provide continuous, non-invasive, and real-time monitoring of neonatal respiratory status, offering a promising tool to guide clinical decision-making and reduce dependence on invasive procedures.
-
Digital Cattle Twins: Revolutionizing Calving Management Through Markovian Prediction Systems 国際会議
Thi Thi Zin, Tunn Cho Lwin, Aung Si Thu Moe, Pyae Phyo Kyaw, M. Aikawa and Pyke Tin
The Seventh International Conference on Smart Vehicular Technology, Transportation, Communication and Applications (VTCA 2025) (Fuzhou, Fujian, China) 2025年11月22日 Technically sponsored by Southwest Jiaotong University and Technology and Nanchang Institute of Technology
開催年月日: 2025年11月21日 - 2025年11月23日
記述言語:英語 会議種別:口頭発表(一般)
開催地:Fuzhou, Fujian, China 国名:中華人民共和国
The integration of digital twin technology with livestock management intro-duces new possibilities in precision livestock farming. Our research proposes the Digital Cattle Twin (DCT) system, a transformative approach to managing cattle calving during the critical periparturient period. This system merges Markovian modeling with real-time visual monitoring to enhance predictive accuracy in calving management. By modeling calving as a sequence of interconnected states within a Markov chain, the DCT predicts progression from early labor to postpartum recovery with high precision. Real-time prob-ability calculations enable early detection of complications and optimal intervention timing. The system integrates diverse data streams, including vaginal temperature sensors for pre-calving temperature drops, AI-based video analysis for behavioral and movement changes, heart rate variability for stress detection, and spatial tracking for calving readiness. A predictive analytics engine processes this multimodal data, achieving high accuracy in detecting risks. The DCT’s adaptive learning architecture refines predictions using both individual and herd-level patterns, enabling a proactive rather than reactive management approach. Beyond calving, this framework illustrates how mathematical modeling and digital twins can redefine livestock management, opening pathways for broader applications in animal health, welfare, and production optimization.
-
San Chain Tun, Pyke Tin, M. Aikawa, I. Kobayashi and Thi Thi Zin
The 9th International Conference on Information Technology (InCIT2025) (Phuket, Thailand) 2025年11月13日 IEEE Thailand Section (IEEE Computer Society Thailand Chapter)
開催年月日: 2025年11月12日 - 2025年11月14日
記述言語:英語 会議種別:口頭発表(一般)
開催地:Phuket, Thailand 国名:タイ王国
Automated identification of individual livestock is a critical component of precision livestock farming. This study presents a robust, real-time system for recognizing four-digit ear tag numbers on cows using a multi-stage pipeline. The pipeline consists of ROI extraction, YOLOv11-based detection and instance segmentation of cow heads and ear tags, a customized tracking algorithm for persistent identity assignment, and an NRTR-based OCR model with EfficientNet backbones for number recognition. The customized tracker leverages Intersection over Union (IoU), frame-holding, and bounding box position logic to handle missed detections and ensure accurate tracking. The OCR model predicts digits 0-9 and uses "x" for unknown characters, providing reliable sequence recognition from cropped ear tag images. The system was evaluated on a real-world dataset collected over five days on a dairy farm. The overall detection and tracking accuracy achieved 96.18%, while OCR accuracy for EfficientNet backbones B4 to B7 reached 91.54%, 93.85%, 93.08%, and 95.38%, respectively. Results demonstrate high accuracy and robustness across all stages, confirming the practical viability of the approach. This integrated system offers a scalable solution for automated cattle identification and monitoring in operational farm environments.
-
Cho Nilar Phyo, Thi Thi Zin and Pyke Tin
The 9th International Conference on Information Technology (InCIT2025) (Phuket, Thailand and Online) 2025年11月13日 IEEE Thailand Section (IEEE Computer Society Thailand Chapter)
開催年月日: 2025年11月12日 - 2025年11月14日
記述言語:英語 会議種別:口頭発表(一般)
開催地:Phuket, Thailand and Online 国名:タイ王国
This paper presents a novel gait-based framework for long-term person re-identification in real-world environments. Unlike appearance-based methods, which are often sensitive to illumination, clothing changes, and occlusion, our approach leverages gait dynamics captured via dense optical flow and deep feature learning. We integrate ResNet101 for spatial feature extraction and an LSTM network for temporal sequence modeling, enabling robust representation of human walking patterns across extended time periods. The experimental results on gait datasets demonstrate that the proposed system achieves good recognition in term of accuracy, mean Average Precision (mAP) and recall, and stability under challenging real-world conditions, highlighting its potential for surveillance and security applications.
-
Estimation of Cows Weight using a Depth Camera 国際会議
S. Araki, K. Shiiya, Thi Thi Zin, I. Kobayashi
2025 IEEE 14th Global Conference on Consumer Electronics (GCCE2025) (Osaka, Japan) 2025年9月25日 IEEE Consumer Technology Society
開催年月日: 2025年9月23日 - 2025年9月26日
記述言語:英語 会議種別:口頭発表(一般)
開催地:Osaka, Japan 国名:日本国
Traditional methods for measuring cattle weight require special equipment and often involve physical contact with the animals, increasing the risk of accidents. As the workload for dairy farmers grows due to a decreasing workforce, there is a strong need for safer and more efficient solutions. In this study, we propose a contactless method to estimate cattle weight using a depth camera. This study differentiates itself from other studies by placing the camera above the cow, making it more versatile. We extracted depth images and calculated key body measurements: height, body length, and belly width. Based on these values, we created a regression formula to estimate weight. Our results show that it is possible to estimate cattle weight roughly using only the values obtained from depth images. This method reduces the risk of injuries during measurement and offers a more efficient way to manage cattle health and nutrition.
受賞 【 表示 / 非表示 】
-
IEEE GCCE 2025 Excellent Student Paper Award (Outstanding Prize)
2025年9月 2025 IEEE 14th Global Conference on Consumer Electronics (GCCE 2025) A Conceptual Framework for Neonatal Motor Activity Monitoring Using Digital Twin Technology and Computer Vision: A Preliminary Study
Remon Nakashima, Thi Thi Zin and Yuki Kodama
受賞区分:国際学会・会議・シンポジウム等の賞 受賞国:日本国
Abstract—Continuous non‑contact monitoring of neonatal motor activity in the neonatal intensive care unit (NICU) is crucial for early detection of neurological disorders and for guiding timely clinical interventions. We introduce an infrared‑driven skeleton‑estimation prototype designed for real‑time operation that generates a live virtual “digital twin” of the infant’s posture to support clinician assessment. A deep‑learning pose model was fine‑tuned on a bespoke infrared key‑point dataset, and three motion‑quantification filters were evaluated: raw differencing (Method A), center‑aligned suppression (Method B), and a newly proposed skeleton template‑matching filter (Method C). Tests on a life‑sized neonatal mannequin confirmed centimetric joint‑localization accuracy, reliable detection of 50‑pixel hand displacements, and reduction of simulated camera‑shake artifacts to within five pixels. Building on these results, a follow‑up evaluation on pre‑term neonates showed that Method C suppressed static key‑point noise by 78 % while preserving physiological motion. This combined mannequin and in‑vivo evidence demonstrates the clinical feasibility of our infrared digital‑twin framework and establishes a foundation for automated assessment of pre‑term motor development.
-
2025年9月 2025 IEEE 14th Global Conference on Consumer Electronics (GCCE 2025) A Conceptual Framework for Neonatal Motor Activity Monitoring Using Digital Twin Technology and Computer Vision: A Preliminary Study
Remon Nakashima, Thi Thi Zin and Yuki Kodama
受賞区分:国際学会・会議・シンポジウム等の賞 受賞国:日本国
Abstract—Continuous non‑contact monitoring of neonatal motor activity in the neonatal intensive care unit (NICU) is crucial for early detection of neurological disorders and for guiding timely clinical interventions. We introduce an infrared‑driven skeleton‑estimation prototype designed for real‑time operation that generates a live virtual “digital twin” of the infant’s posture to support clinician assessment. A deep‑learning pose model was fine‑tuned on a bespoke infrared key‑point dataset, and three motion‑quantification filters were evaluated: raw differencing (Method A), center‑aligned suppression (Method B), and a newly proposed skeleton template‑matching filter (Method C). Tests on a life‑sized neonatal mannequin confirmed centimetric joint‑localization accuracy, reliable detection of 50‑pixel hand displacements, and reduction of simulated camera‑shake artifacts to within five pixels. Building on these results, a follow‑up evaluation on pre‑term neonates showed that Method C suppressed static key‑point noise by 78 % while preserving physiological motion. This combined mannequin and in‑vivo evidence demonstrates the clinical feasibility of our infrared digital‑twin framework and establishes a foundation for automated assessment of pre‑term motor development.
-
Best Presentation Award
2025年8月 The 19th International Conference on Innovative Computing, Information and Control (ICICIC2025) Depth Camera-Based Analysis of Elderly Behavior for Risk Detection Using Skeletal Data
Remon Nakashima, Thi Thi Zin, H. Tamura, S. Watanabe
受賞区分:国際学会・会議・シンポジウム等の賞 受賞国:日本国
We present a non-contact, privacy-preserving monitoring system that estimates behavioral risk in elderly-care rooms using depth cameras. First, each video frame is processed to detect individuals and extract 13 skeletal keypoints via a YOLO-based person detector and pose estimator. These keypoints are fed into a two-stage model comprising a graph convolutional network (GCN) and a Transformer encoder, which capture spatial and temporal movement patterns. To contextualize actions, we apply semantic segmentation to identify key regions such as beds and chairs. A rule-based framework then integrates action predictions with spatial overlap between keypoints and environment masks to assign one of three risk levels: Safe, Attention, or Danger. For robustness, we apply temporal smoothing and fuse outputs from two depth cameras. Finally, we design and implement a lightweight graphical user interface (GUI) to visualize risk levels and issue real-time alerts. Experimental results show an overall accuracy of 89.8 % and a hazard-detection accuracy of 74.3 %.
-
Silver Award of the Best Oral Presentation
2025年8月 The 2nd International Conference on Agricultural Innovation and Natural Resources Vision-Driven Detection of Aquatic Animals for Precision Nutritional Control
Aung Si Thu Moe, Kittichon U-TAYNAPUN, Nion CHIRAPONGSATONKUL, Pyke Tin, Thi Thi Zin
受賞区分:国際学会・会議・シンポジウム等の賞 受賞国:タイ王国
Aquatic farming is a vital component of Thailand’s agricultural economy, but it faces ongoing challenges in managing aquatic animal nutrition and determining accurate feed requirements. Traditional feeding methods often lead to overfeeding or underfeeding, increasing operational costs and raising environmental concerns. This study introduces a vision-driven approach to enhance precision nutrition management in controlled pond environments. We evaluate the feed preferences of aquatic animals across four types of feed: PSB Saiyai Green, PSB Saiyai Brown, Control, and PSB Saiyai Dark Red using advanced computer vision techniques. A small-scale experimental pond was constructed. A top-mounted camera captures real-time footage across four designated feed regions. Light bulbs ensure consistent illumination for clear visibility. Our system leverages a custom lightweight distillation framework based on the YOLOv11x model to detect and count aquatic animals in each region efficiently and accurately. The analysis delivers actionable insights into feeding behavior and preferences, enabling data-driven, optimized feeding strategies. This method supports the development of smart aquaculture practices, promoting sustainability and improved nutritional management in Thailand's aquatic farming industry.
-
Best Presentation Award
2025年7月 The 12th IEEE International Conference on Consumer Electronics – Taiwan A study on action recognition for the elderly using depth camera
Remon Nakashima, Thi Thi Zin, H. Tamura, S. Watanabe, E. Chosa
受賞区分:国際学会・会議・シンポジウム等の賞 受賞国:台湾
In this study, a depth camera-based system is proposed to achieve non-contact, privacy- preserving action recognition using human skeleton recognition. Specifically, human regions are first extracted using bounding box (BB) detection, followed by action recognition based on Keypoint-based pose estimation. The estimated Keypoints capture detailed joint positions, and their structural relationships are modeled with a Graph Convolutional Network (GCN). Furthermore, a Transformer is employed to capture the temporal features of the skeletal data. This Keypoint-centric pipeline differentiates our approach from conventional, silhouette-level methods and significantly enhances the granularity of action recognition.
科研費(文科省・学振・厚労省)獲得実績 【 表示 / 非表示 】
-
Enhanced AI-Driven Image Analysis for Early Mycoplasma Detection in Dairy Calves for innovations in Livestock Health Management
研究課題/領域番号:25K15232 2025年04月 - 2028年03月
独立行政法人日本学術振興会 科学研究費補助金 基盤研究(C)(一般)
担当区分:研究分担者
畜産は全国農業総生産額の3 割以上を占める重要な産業であるが、不適切な家畜管理による生産性の低下が大きな問題となっている。その主たる原因は飼養形態の変化による1 頭あたり観察時間の短縮であり、飼養頭数の多頭化・農家の高齢化が進む畜産現場において、365 日24 時間にわたり家畜の異常や変化を観察し続けることは困難である。
申請者らは、主に非接触・非侵襲センサ情報のアルゴリズム解析技術に着目し、距離画像とビデオ画像を用いて牛の発情を検知できる独自アルゴリズムの開発に取り組んできた。本研究では、これらの技術を応用することで、牛の発情や分娩監視時の異常を自動検知できる省力的な24 時間
家畜管理システムを開発する。 -
AIと画像データ解析を活用した牛の摂食行動モニタリングによる持続可能な酪農の実現
研究課題/領域番号:25K15158 2025年04月 - 2028年03月
独立行政法人日本学術振興会 科学研究費補助金 基盤研究(C)(一般)
担当区分:研究代表者
畜産は全国農業総生産額の3 割以上を占める重要な産業であるが、不適切な家畜管理による生産性の低下が大きな問題となっている。その主たる原因は飼養形態の変化による1 頭あたり観察時間の短縮であり、飼養頭数の多頭化・農家の高齢化が進む畜産現場において、365 日24 時間にわたり家畜の異常や変化を観察し続けることは困難である。
申請者らは、主に非接触・非侵襲センサ情報のアルゴリズム解析技術に着目し、距離画像とビデオ画像を用いて牛の発情を検知できる独自アルゴリズムの開発に取り組んできた。本研究では、これらの技術を応用することで、牛の発情や分娩監視時の異常を自動検知できる省力的な24 時間
家畜管理システムを開発する。 -
牛の分娩監視システムに関する研究
研究課題/領域番号:18J14542 2018年04月 - 2020年03月
科学研究費補助金 特別研究員奨励費
須見 公祐、Thi Thi Zin(受入研究者)
担当区分:研究分担者
精度や耐久性が不十分な割に高価なウェラブル型センサの装着や、肉体的・精神的に大きな負担を強いられる目視によるカメラ映像のモニタリング等は、大規模化する畜産現場において現実的なコストで利用できるものが極めて少ない。そこで本研究では、監視カメラから得られる映像を用いて非接触型の分娩管理システムを開発することで、農家そして牛、両方の負担を減らすことを目的とする。
本来、牛は牛群と呼ばれるグループで行動を行う。そして、分娩が間近になると分娩室という分娩専用の牛舎に移される。分娩室には2 頭以上を同時に入れるケースも多く、どの牛で分娩が始まったかを識別する必要があることから、個体識別と追跡処理が必要となる。次に、分娩行動の段階を追って検知を行う。抽出する特徴としては、尻尾が上がっているかどうか、牛が立っているか座っているか、落ち着きがなくなり移動量が増加するか、子牛を出産したかどうか、親牛が子牛を舐めているかどうかなど、それぞれの過程で自動的に異常を見つけ通報を行うアルゴリズムの開発を進める。分娩行動が起きたかどうかの判断は、これらのデータから各特徴の重要度(重み)を学習させることによって行う。そして、最終目標として難産など異常行動の検知を行うために事例を蓄積しながら知識ベースを充実させ、異常事態の検知を行い、分娩の各段階を監視して異常事態の検知ならびに通報が可能なシステムの開発を目指す。 -
画像処理技術と非接触センサを用いた牛の発情検知及び分娩監視システムの開発
研究課題/領域番号:17K08066 2017年04月 - 2021年03月
科学研究費補助金 基盤研究(C)
担当区分:研究代表者
畜産は全国農業総生産額の3 割以上を占める重要な産業であるが、不適切な家畜管理による生産性の低下が大きな問題となっている。その主たる原因は飼養形態の変化による1 頭あたり観察時間の短縮であり、飼養頭数の多頭化・農家の高齢化が進む畜産現場において、365 日24 時間にわたり家畜の異常や変化を観察し続けることは困難である。
申請者らは、主に非接触・非侵襲センサ情報のアルゴリズム解析技術に着目し、距離画像とビデオ画像を用いて牛の発情を検知できる独自アルゴリズムの開発に取り組んできた。本研究では、これらの技術を応用することで、牛の発情や分娩監視時の異常を自動検知できる省力的な24 時間
家畜管理システムを開発する。 -
特徴対応異種画像統合法を用いた個人特定法医画像診断法の開発
研究課題/領域番号:15K15457 2015年04月 - 2018年03月
科学研究費補助金 挑戦的萌芽研究
担当区分:研究分担者
本研究は、災害や事件・事故における損傷の激しい遺体の身元確認において、迅速かつ高精度で個人を特定し得る「法医放射線画像コンピューター支援システム」の構築・整備を最終目標とするものである。骨の描出に優れた「X線画像診断」と「死後画像診断(Ai)」の連携に着眼し、身元確認困難な遺体の個人特定を、顔認識機能に代表される特徴対応異種画像統合法を駆使して行う挑戦的萌芽研究である。本法による個人特定は、我が国が直面する大震災や津波災害・山火事・噴火災害や重大事件・事故時において遺族の精神的負担軽減や財政的課題にも大いに寄与すると期待され切に望まれるものでもあり、まさに我が国が抱える課題の解決につながる実践的事業の一翼を強力に推進するものであると確信する。
その他競争的資金獲得実績 【 表示 / 非表示 】
-
低電力電波センサによる心拍推定を活用した牛の分娩難産予測システムの研究開発
2025年07月 - 2029年03月
総務省 持続可能な電波有効利用の た めの基盤技術研究開発事業 (FORWARD)
担当区分:研究代表者
-
次世代AI及びIoT分野で活躍できる優秀な人材育成プログラムと研究交流 国際共著
2021年12月 - 2022年03月
JST さくらサイエンス
Thi Thi Zin
担当区分:研究代表者
-
「魚介類の疾病予防のための画像解析技術の開発」 -水産学と工学の融合による新たな技術の創出- 国際共著
2021年12月 - 2022年03月
JST さくらサイエンス
Thi Thi Zin
担当区分:研究代表者
-
途上国の子供たちが読み書き計算を学ぶための、AI 技術と動画自動生成 技術を有する基礎教育タブレット「Ta-BE(タビー)」の開発
2018年06月 - 2021年02月
経済産業省 戦略的基盤技術高度化支援事業(サポイン事業)
(株)教育情報サービス、宮崎大学工学部 Thi Thi Zin
担当区分:研究代表者 資金種別:競争的資金
開発途上国には、良質な教育にアクセスできない子供たちが数多くいる。これを踏まえ、2015年国連本部 において採択された「2030アジェンダ」の目標の一つに、「すべての人に包摂的かつ公正な質の高い教育を 確保する」とある。これを背景に、AI技術を活用した音声・画像認識機能を用いて、学習者の教育レベルを認 識・分析し、AI自体がその学習者に特化した解説動画を自動で生成する基礎的な教育用タブレットを開発する。
-
地域の特色を考慮した高齢者のQOL向上と自立生活を支援するための要素技術開発
2014年04月 - 2015年03月
「地(知)の拠点整備事業(大学COC事業)」 「地(知)の拠点整備事業(大学COC事業)」
担当区分:研究代表者 資金種別:競争的資金
超高齢社会の到来に伴って色々な社会問題(医療、年金、介護・福祉等の負担増、雇用創出、労働力確保)が派生しており、行政、地域、医療、介護、技術が一体となって取組む必要がある。このような時代背景の下で、宮崎県の地域特色を考慮した高齢者のQOL(生活の質)向上と自立生活を支援するための見守りシステム構築に必要な要素技術開発を行う。
2013年の宮崎県の高齢化率は26.7%で国の平均24.1%を上回っており、今後も進んでいくと推定されている(内閣府「高齢社会白書」)。ここでは地域の特色を考慮に入れたコミュニティ造りが重要であると同時に自立生活を支援する見守りシステム構築も不可欠である。問題解決に向けて、ICTの側面から貢献できることはたくさんあり、本提案研究では、薬の誤服用や飲み忘れを防止する薬管理システム構築のための要素技術を開発し、自立生活を支援すると同時に、介護や見守り現場でのスタッフの負担軽減を目指す。
受託研究受入実績 【 表示 / 非表示 】
-
ものづくり現場におけるIoT技術を活用した作業効率向上に関する研究
2021年04月 - 2022年03月
宮崎県工業技術センター 一般受託研究
Thi Thi Zin
担当区分:研究分担者 受託研究区分:一般受託研究
-
ものづくり現場におけるIoT技術を活用した作業効率向上に関する研究
2020年06月 - 2021年03月
宮崎県工業技術センター 一般受託研究
田村 宏樹、Thi Thi Zin
担当区分:研究分担者 受託研究区分:一般受託研究
-
JST :日本・アジア青少年サイエンス交流事業
2019年04月 - 2020年03月
一般受託研究
担当区分:研究代表者 受託研究区分:一般受託研究
さくらサイエンスプラン:「科学技術研修コース」(Cコース)
次世代AI及びIoTの分野で活躍できる優秀な人材育成プログラムと研究交流 -
JST :日本・アジア青少年サイエンス交流事業
2018年06月 - 2018年10月
一般受託研究
担当区分:研究代表者 受託研究区分:一般受託研究
さくらサイエンスプラン:「科学技術研修コース」(Cコース)
ミャンマーの優秀な学生を対象にした、日本の最先端 ICTと各種分野における学際研究の技術移転と研究交流 -
2018年04月 - 2020年03月
総務省 一般受託研究
担当区分:研究代表者 受託研究区分:一般受託研究
戦略的情報通信研究開発推進事業(SCOPE)
地域ICT振興型研究開発(フェーズII)
高齢化、大規模化する現代の畜産で、24 時間365 日にわたり家畜の健康管理を適切に行い、異常や変化に留意し続けながら経営を継続することは容易でない。 本研究では、ICTを活用して牛の健康状態の重要な指標となるBCS(ボディコンディションスコア)の省力的な評価方法を開発するとともに、母牛の発情行動や分娩時異常行動を非接触センサにより自動検知して農場管理者に知らせることにより、健康管理、分娩介助や診療、人工授精をタイミングよく行い、効率的な家畜生産性の向上につなげていく。 また、ベースとなる個体識別や追跡技術を開発していく。
研究・技術シーズ 【 表示 / 非表示 】
-
ICTを活用した牛のモニタリングシステムの開発に関する研究
安全・安心のための24時間自動見守り・監視システムの開発に関する研究
工場の作業効率化のための作業グループ検出に関する研究ホームページ: 研究者データベース
技術相談に応じられる関連分野:ビッグデータからの新しい知見の獲得・発見を体系的に行える数理的道具の開発
牛のモニタリング情報分析システム
高度な画像処理技術とAI活用による身体・精神機能低下患者の行動認識に関する研究
ビデオ画像を利用した新生児運動モニタリングシステムの開発に関する研究
画像処理技術を用いた疾病の特徴を示すエビを検出するシステムメッセージ:『画像処理を用いて様々な問題を解決すること』を目的として、農学や医学の分野に係わる学際領域の研究を幅広く行っています。多種多様な課題に対して各分野の専門家と協力して、画像処理分野からの貢献を目指して、研究・開発を行っています。