Informatikai Tudományok Doktori Iskola
Állandó link (URI) ehhez a gyűjteményhez
Informatikai Kar
Informatikai Tudományok Doktori Iskola
(vezető: Dr. Baran Sándor)
Természettudományi és Informatikai Doktori Tanács
tudományterület:
- műszaki tudományok
tudományág:
- informatika tudományok
Doktori programok:
- Adattudomány és vizualizáció
Data science and visualization
(programvezető: Dr. Hajdu András) - Alkalmazott információ technológia és elméleti háttere
Applied Information Technology and its Theoretical Background
(programvezető: Dr. Terdik György) - Elméleti számítástudomány, adatvédelem és kriptográfia
Theoretical computer science, data security and cryptography
(programvezető: Dr. Pethő Attila) - Az információ technológia és a sztochasztikus rendszerek elméleti alapjai és
alkalmazásai
Theoretical foundation and applications of information technology and stochastic systems
(programvezető: Dr. Fazekas István) - Informatikai rendszerek és hálózatok ipari alkalmazásokkal
Information Technology Systems and Networks with Industrial applications
(programvezető: Dr. Sztrik János)
Böngészés
legfrissebb feltöltések
Megjelenítve 1 - 20 (Összesen 118)
Tétel Szabadon hozzáférhető High Speed B5G/6G Communication Network Analysis Using Machine Learning and Queueing Techniques(September 9, 2025) Talbi, Djamila; Gal, Zoltan; Informatikai tudományok doktori iskola; Informatikai KarThe rapid evolution of mobile communication systems has brought the research community to the frontier of the sixth-generation wireless networks. The main aim is to bring a network with high data rates, ultra-low latency, massive device connectivity, and high energy efficiency to the real world. 6G represents a technological shift with significant implications for network design and performance optimization. However, as this network operates at extremely high frequencies, this makes the researchers face a lot of challenges, such as modeling, simulation, and analysis, primarily due to the scarcity of real-world deployment and empirical data. This dissertation studies the 6G network to address this gap, as it proposes a comprehensive framework that applies advanced data processing techniques and artificial intelligence integration strategies to better understand and model 6G communication network behaviors. This work begins by simulating a key MAC layer mechanism known as Adaptive Directional Antenna Protocol for Terahertz, which is specifically tailored for the 6G context. Using the ns-3 simulator integrated with the TeraSim module, we reproduce directional communication scenarios within THz bands. The simulation captures a range of critical Key Performance Indicators such as throughput, delay, packet collision rate, and received power. These KPIs are not only vital for characterizing network performance but also serve as the fundamental input for downstream processing and learning mechanisms. Following data extraction, a comprehensive preprocessing stage is conducted to extract the hidden informative features and evaluate the complexity of the network behavior. This step includes both classical signal processing and advanced techniques such as Shannon entropy for quantifying uncertainty, empirical mode decomposition and ensemble variant empirical mode decomposition for adaptive multi-scale decomposition, and the marginal Hilbert spectrum for energy distribution in the time-frequency domain. By doing so, a nuanced behavioral dynamic is revealed that is otherwise hidden in raw performance logs. The third layer of the methodology involves the application of five AI strategies to leverage the processed data, including unsupervised machine learning methods, supervised learning models, multi-layer transfer learning, generative AI techniques, and reinforcement learning, particularly deep Q-networks. Importantly, given the absence of real-world 6G testbeds and empirical data, the dissertation emphasizes theoretical validation. Comparative metrics, entropy-based measurements, and behavioral symmetry analyses are used to assess the coherence and plausibility of the simulated and AI-generated results. The proposed pipeline thus ensures that each stage from simulation to learning is grounded in logical consistency and system behavior modeling principles. This dissertation offers a multi-layered framework that advances the current state of research in 6G network modeling by bridging simulation, complexity analysis, and artificial intelligence. The methodology developed herein is not only applicable to 6G research but is also generalized to other high-frequency, high-complexity wireless systems. It lays a robust foundation for future work that will inevitably benefit from the availability of real-world 6G deployment data.Tétel Szabadon hozzáférhető Development of a virtual reality application and general methodological considerations for seeking code for a possible continuation(2025.08.31) Szabó, Beatrix Katalin; Gilányi, Attila; Szabó, Beatrix Katalin; Informatikai tudományok doktori iskola; Informatikai KarThe dissertation describes a virtual reality application developed in an open-source game engine. As the game engine was discontinued, and no successor platform was chosen yet, the web search of software developers was studied to aid the development in a possible continuation of the project. The notion of immersion (an important element of virtual reality) was studied.Tétel Szabadon hozzáférhető Design and performance analysis of applications using machine learning(2025) Szabó, Máté; Ispány, Márton; Informatikai tudományok doktori iskola; Informatikai Kar::Információ Technológia TanszékThe proliferation of machine learning (ML) across web and mobile applications has created a pressing need for architectures that are not only powerful but also scalable, integrable, and efficient, particularly in resource-constrained and heterogeneous environments. This dissertation presents a comprehensive investigation into the design, performance analysis, and integration of applications that utilize machine learning, bridging the gap between mobile computing, web services, and distributed systems. My research addresses the critical challenges of training and deploying ML models across diverse platforms by proposing practical architectures, conducting extensive performance evaluations, and demonstrating the feasibility of these approaches through real-world experiments. This dissertation first addresses the challenge of leveraging the latent computational power of mobile devices for complex ML tasks. I propose and implement a novel client-server architecture for distributed model training that utilizes data parallelism across a cluster of mobile clients. In this framework, a central web service manages dataset slicing, model persistence, and the construction of ensemble models, while Android clients perform the computationally intensive training on partitioned data. My research demonstrates that it is not only feasible but also efficient to perform distributed training on mobile platforms. The resulting ensemble models, aggregated from submodels trained on individual devices, achieve accuracy comparable to that of a single model trained on a traditional desktop system, thereby validating the use of mobile device clusters for large-scale ML tasks. Building on the feasibility of on-device computation, the research then delves into the practical aspects of library selection for native Android development. Recognizing the limitations of Python in the Android ecosystem, I conducted a rigorous comparative analysis of three prominent Java-based ML libraries: Weka, SMILE, and Oracle Tribuo. After porting these libraries to the Android platform, I developed a benchmarking application to systematically measure and compare their performance across key metrics, including runtime, memory consumption, CPU load, and battery usage. The findings identify Weka as the most resource-efficient library for general-purpose tasks, especially with larger datasets, offering a clear recommendation for developers seeking to build efficient, self-contained ML applications on Android. To address the challenge of integrating diverse ML models from different programming ecosystems, this thesis proposes a novel microservice-based framework. This architecture enables the creation of powerful, language-agnostic ensemble models by wrapping ML libraries such as Scikit-learn, Weka, and TensorFlow into independent, interoperable web services. I present and evaluate two primary architectural variants: a direct model, where client applications query individual ML services, and a gateway model, where an aggregator service coordinates requests and combines results. This approach provides the flexibility to build sophisticated ML workflows that are scalable, maintainable, and not constrained by a single programming language or platform. Beyond system architecture, the dissertation explores the application of these principles in two novel domains. The first is a series of cognitive experiments ("SMNIST") that investigates the parallels between the human Object File System (OFS) for perceiving numerosity and the classification capabilities of deep learning models. The second is an educational framework ("Red Flower Hell") using Minecraft's MALMÖ platform, which demonstrates how gamified, AI-driven challenges can significantly enhance student engagement and competence in introductory programming courses. These case studies highlight the broader impact of ML, extending its application from technical infrastructure to advancing cognitive science and innovative pedagogy. Collectively, these contributions offer a holistic blueprint for developers and researchers, providing validated strategies and robust architectural patterns for building and deploying scalable and efficient machine learning systems across the interconnected landscape of mobile, web, and microservice technologies.Tétel Szabadon hozzáférhető Development of patient-specific, lattice-structured hip implant stems based on finite element analysis and machine learning(2025) Al kentar, Rashwan; Mankovits, Tamás; -, -; Informatikai tudományok doktori iskola; Informatikai Kar::Adattudomány és Vizualizáció TanszékBecause of the increase in hip implant operations over the last few decades, the design and manufacturing techniques have also been improving in order to create the optimal design that suits each individual patient and minimizes the need for revisional surgery. The hip implant fixture into the human bones has been the main concern from the biomechanical point of view. Lattice topology optimization has aided in supporting the osseointegration properties since the lattice structures have shown, once applied, the ability to produce a close-to-bone structure due to their properties. Due to their properties, lattice structures have aided in supporting the osseointegration properties once applied to the implant, leading to a better fixture for implants as strange objects into the human bone. However, the properties of the lattice structures change based on their parameters, which in turn can complicate the structure's shape and topology, making the manufacturing process a complicated task. For the purpose of saving the time and effort of the implant creation process, machine learning methods have come to support the prediction of the mechanical properties, and additive manufacturing techniques have handled the manufacturing of the complex topology of the implant structure. This doctoral dissertation provides a comprehensive and carefully updated examination of literature pertaining to the process of the lattice optimization of hip implants. Additionally, it goes deep into the complex field of practical design optimization for the hip implant using lattice structures. With the aid of machine learning techniques, these lattice structure properties have been calculated according to desired mechanical properties. Thus, the process ensures higher overall efficiency and precision of the implant design. The research investigates material selection, where the study shows the benefits of using the titanium Ti6Al4V alloy with the lattice structures design due to its suitable properties. This alloy has a high corrosion resistance and almost no critical interaction with the human body fluid. The alloy’s Young’s modulus is also calculated to assess the elasticity of the selected material. The dissertation also focuses on the initial computer-aided design of the lattice structures and their applied types. Three distinct types of latticed structures with different shapes are discussed. The mechanical properties relating to unit cells and the effect they have on the general implant design are investigated. Using one of the machine learning techniques, Linear regression, the porosity of the latticed design is pre-set to be in a suitable range that results in better topology and mechanical properties for the implant design. Total numerical simulation is performed on the three designs of unit cells, then the specimens are 3D-printed, and a laboratory compression test is performed to validate the results of the simulations.Tétel Szabadon hozzáférhető Ipar 4.0 informatikai vonatkozásai(2025) Erdei, Timotei István; Husi, Géza; Informatikai tudományok doktori iskola; Műszaki KarA magasabb szintű flexibilitás elérése kulcsfontosságú annak érdekében, hogy az egyes gyártósorok magasabb hatékonysági rátát érhessenek el. A termelésben alkalmazott több tengelyes robotegységek használata és integrálhatóságuknak növelése szintén új technika kidolgozását teszi szükségessé, mivel a régebbi ipari gépek nem támogatják a modern szabványokat. Az ismertetésre kerülő kutatási anyag a labor digitális-ikerpár tervezésére és a többtengelyes robotegység kezelésére fókuszál oktatási céllal. A digitalizált laborban elvégezhetőek a tesztelési feladatok és vizsgálhatóak az oktatásra gyakorolt hatásai. Szintén kiemelendő, hogy a digitalizált labor hatékony megoldást szolgáltatott a COVID-19 világjárvány idején az online alapú oktatásnál. Az oktatásban részvevő személyek el tudták sajátítani az ember-gép interfész kezelését és megismerhették a gépre jellemző általános gépkezelési jellemzőket. Továbbá az általunk megtervezett digitális-ikerpár egyes egység modelljei egyben referencia munkadarabok is voltak, amik adatkészletek előállítására is felhasználására kerültek. Az általunk választott referencia objektumok detektálására saját neurális háló lett tanítva, amely tesztelésre és kiértékelésre került egy régebbi robotegység munkaterében. Így ezen gépek használatának tekintetében szintén új utakat nyithatunk meg a mélytanulás alapú neurális hálók alkalmazására, ami az ipar 4.0 egyik meghatározó fő kritériuma.Tétel Szabadon hozzáférhető Development of Hybrid Electric Powertrain of Redesigned Volkswagen Crafter with Online Data Acquisition System(2025) Babangida, Aminu; Tamás Szemes, Péter; Babangida, Aminu; Informatikai tudományok doktori iskola; Informatikai KarThe function of an energy management strategy (EMS) in electric vehicles (EVs) is to ensure optimal performance conditions for the vehicles in terms of fuel economy and reduced toxic gas emissions. In the Volkswagen (VW) of the Department of Vehicles Engineering hybrid powertrain, a 2.0 turbocharged direct injection common rail (TDI CR) diesel engine is integrated with a permanent magnet synchronous electrical machine (PMSM) to minimize the vehicle consumption and gas emissions. This dissertation presents the development of a hybrid VW Crafter, implemented with a novel methodology based on an online data acquisition (DAQ) approach for analyzing the vehicle controller area network (CAN) bus in electrical drives. To facilitate the feasibility of transforming an internal combustion engine (ICE) powered vehicle into a hybrid, the vehicle CAN bus data is collected using LabVIEW software, which is based on the hardware-in-the-loop (HIL) method, decoded with the help of a database (DBC) file and analyzed by redesigning the Crafter based on the data measurements conducted and complemented by the model-in-the-loop (MIL) method on the basis of the physical background plant descriptions of the vehicle components with a computer-aided simulation (CAS) in MATLAB/Simulink/Simcape environment. This work analyses the vehicle’s traction using mathematical descriptions of the vehicle to validate its exact power source, considering trade-offs between vehicle size, battery size, engine type, vehicle mass, driving range, and fuel consumption, as well as battery capacity fade over time and its life cycles. Moreover, EMS using a proportional integral derivative-based genetic algorithm (GA-PID), proposing an integral time absolute error (ITAE) as a fitness function, is developed to allocate load demand to the power source, reducing fuel consumption and carbon dioxide (CO_2) emissions. Therefore, the vehicle's pure, conventional, and hybrid versions are developed and compared. The effectiveness of the proposed EMS is verified by the proportional integral-based particle swarm optimization (PSO-PI) and fractional order proportional integral derivative (FOPID) strategies for the hybrid powertrain. This research reduces fuel consumption, CO_2 emissions, and energy consumption by 68.620%, 70.840%, and 25.080%, respectively.Tétel Szabadon hozzáférhető Design and Optimization of Machine Learning Models(2025) Lakatos, Róbert; Hajdu, András; Lakatos, Róbert; Informatikai tudományok doktori iskola; Informatikai KarEz a disszertáció gépi és mélytanulásos optimalizálási technikákat vizsgál, a modellek teljesítményének és alkalmazkodóképességének javítására összpontosítva különböző területeken. A kutatás kiemeli az algoritmikus szintű optimalizálás jelentőségét, mint például a gradiens alapú optimalizálók és a hiperparaméter hangolás, valamint a stratégiai módszertanok, beleértve az átviteli tanulást, a finomhangolást és az előtanítást, különösen a nagy nyelvi modelleken (LLM) belül. A III. fejezet egy új együttes keretrendszert mutat be, amely integrálja az LLM-eket a rekurens neurális hálózatokkal az olajárak előrejelzéséhez. Ez a fejezet bemutatja a hibrid architektúrák hatékonyságát a gazdasági előrejelzésben az érzelem-tudatos szövegelemzés és az idősoros modellek kombinálásával. A IV. fejezet egy együttes folyamatláncot mutat be, amely értelmes információk kinyerésére szolgál az ügyfélvéleményekből. A javasolt rendszer felülmúlja az általánosan használt módszereket, a releváns állítások koherensebb és következetesebb kinyerését kínálva klasszikus és gépi tanulási technikák segítségével. Az V. fejezet a multimodális tanulást vizsgálja a dohányzási viselkedés szöveges és képi adatokból történő detektálásán keresztül. A korlátozott adatkészlet ellenére a javasolt architektúra erős teljesítményt ér el, ami illusztrálja a multimodális fúzió lehetőségeit a viselkedéselemzési feladatokban. A VI. fejezet összehasonlítja a visszakereséssel kiterjesztett generálást (RAG) a tudásalapú rendszerek építésében alkalmazott területspecifikus finomhangolással. Az eredmények azt mutatják, hogy a RAG kiváló rugalmasságot és teljesítményt nyújt az általánosításban és a tudásvisszakeresésben. Végül a VII. fejezet az elméleti modellezést optimalizálási algoritmusokkal köti össze a legkisebb négyzetek görbeillesztésének alkalmazásával, hogy finomítsa az olyan epidemiológiai modelleket, mint a SIR, hozzájárulva a neurális hálózatok előtanításának javításához. Ezek a tanulmányok bemutatják, hogy a testreszabott optimalizálási stratégiák hogyan segíthetik elő a gépi tanulási alkalmazások fejlesztését a változatos és összetett problématerületeken.Tétel Szabadon hozzáférhető Developing a Biometric Based Authentication to Secure Transferring Data via Cloud Environment(2025) Hussein Kaabi Lafta, Jasim; Tornai, Róbert; Hussein Kaabi Lafta, Jasim; Informatikai tudományok doktori iskola; Informatikai KarA felhőalapú számítástechnika (Cloud Computing) az internetes szolgáltatások fejlődésének következő fázisának keretrendszereként jelent meg. Ez az ígéretes technika egy továbbfejlesztett és hatékony megközelítés az információk felhőben történő tárolására és/vagy feldolgozására, hogy megfeleljen egy sor alkalmazásnak és szolgáltatásnak. A felhőalapú számítástechnika forradalmasította a számítástechnikai iparágat, mivel már számos nagy intézmény használatba vette. Ezek az intézmények online erőforrásokat biztosítanak, az online alkalmazásoktól az adattárolásig és a szerver elérésig. Következésképpen az egyének és a szervezetek is profitáltak belőle, mivel a felhasználók rugalmasan, bárhonnan hozzáférhetnek az alkalmazásokhoz, anélkül, hogy a letöltés és telepítés fejfájást okozna. Ráadásul a hardver és a szoftverek befektetések csökkentésével nagyon költséghatékony a technika. Dolgozatom a felhővel való kommunikáció és authentikáció biztosításához ajánl egy új kidolgozott keretrendszert.Tétel Szabadon hozzáférhető Post-processing ensemble weather forecasts for discrete and continuous quantities in univariate and multivariate settings(2025) Nagy-Lakatos, Mária; Baran, Sándor; Lakatos, Mária; Informatikai tudományok doktori iskola; Informatikai Kar::Alkalmazott Matematikai és Valószínűségszámítási TanszékA numerikus időjárás-előrejelző modellek érzékenyek a kezdeti feltételek apró eltéréseire, amelyek a légkör kaotikus viselkedése miatt gyorsan felerősödhetnek, ezáltal csökkentve az előrejelzések pontosságát. A valószínűségi előrejelzés és a bizonytalanságok becslése céljából ensemble előrejelző rendszerek kerülnek alkalmazásra, amelyek eltérő kezdeti feltételek és modellparaméterezések mellett több előrejelzést állítanak elő. A nyers ensemble előrejelzések azonban gyakran torzítottak és nem reprezentálják eléggé a bizonytalanságot, ezért statisztikai utófeldolgozó módszerek alkalmazása válik szükségessé. Bár ezek a módszerek jelentős javulást eredményeznek, többségük egyváltozós megközelítésű, így nem veszik figyelembe a térbeli, időbeli és meteorológiai változók közötti összefüggéseket. A disszertáció célja egyváltozós és többváltozós statisztikai utófeldolgozó módszerek összehasonlítása, a többváltozós eljárásokon belül pedig különös figyelmet fordítunk a kétlépcsős megközelítésekre, amelyek az egyváltozós korrekció után empirikus kopulák segítségével állítják vissza a korrelációs struktúrákat. Bemutatásra kerül egy interpolációval bővített szemi-lokális eljárás is, amely lehetővé teszi előrejelzések kalibrálását olyan területeken, ahol nem áll rendelkezésre megfigyelés. Vizsgáljuk továbbá, hogy a Copernicus Légkör Megfigyelő Szolgáltatás kategorikus látástávolság-előrejelzései hogyan javíthatják az Európai Középtávú Időjárás Előrejelzések Központja által készített látástávolság előrejelzések statisztikai korrekcióját.Tétel Szabadon hozzáférhető Developing Hybrid Forecasting Models for Large-Scale Heavy Manufacturing Industries(2025-01-07) Gandhi, Herry Kartika; Ispány, Márton; Informatikai tudományok doktori iskola; Informatikai KarThis dissertation proposes novel variations of combining several methods into hybrid forecasting models to increase the forecasting accuracy and decrease the error of predictions within the scope of problems in heavy manufacturing industries. In the first study, the dataset is a non-negative integer-valued, which comes from the number of daily paper roll defects from three different paper machines. The results of INAR(1) will be adjusted to the characteristics of PINAR(1) model or NBINAR(1) model according to their corresponding characteristics. Through model fitting analysis, the PINAR(1) and NBINAR(1) models are shown to fit the actual probability dataset. The second study is demand forecasting from daily electrical consumption. I use a hybrid linear and nonlinear model, with SARIMA model as the first (linear method) and SVR as the second (nonlinear) model. According to the line plot, it can be seen that the prediction value is very close to the actual data. The third study is energy price forecasting. The result of decomposition shows that the imfs are formed from low to high frequency. For the forecasting model, I use three popular techniques from deep learning. In three cases, CEEMD decomposition gives good results compared to all decompositions, while in heating oil price, wavelet decomposition is the best among others. The prediction and actual in one line plot show that the prediction is close to the actual value.Tétel Szabadon hozzáférhető Numerical and analytical comparison of bond graph in mechatronics engineering education(2024) Guo, Zenan; Szemes, Péter; Guo, Zenan; Informatikai tudományok doktori iskola; Informatikai KarA mechatronikai mérnöki tudomány egy évtizedekkel ezelőtt egy japán mérnök által létrehozott interdiszciplináris tantárgy, amely több terület komplex elméleteit tartalmazza. A mechatronikai mérnöki tanulmányok során le kell küzdeni néhány akadályt, az elmélet összetettségét és a kapcsolási rajzról a szimulációs kódra való átváltást. A disszertáció a Bond-grafikát javasolja egyedülálló oktatási módszerként, amely segít a mechatronikai mérnökhallgatóknak leküzdeni ezeket az akadályokat. A hallgatók válaszai alapján nehéz megérteni a mechatronikai mérnöki tudományok elméleti interdiszciplináris tárgyait. A Bond-grafikon alkalmazását javasoltuk a mechatronikai mérnökképzésben, amely megkönnyítheti a hallgatók számára a nehéz tantárgyakat. A Bond Graph mint grafikus nyelv moduláris módszert biztosít az összetett tartalom blokkokra való felosztásához. A mechatronikai hallgatók darabonként sajátíthatják el az ismereteket, majd a moduláris ismereteket kombinálva a rendszer teljes képét kaphatják meg. A Bond-grafikon a hagyományos matematikai módszerhez képest rövidebb tanulási görbét biztosít a hallgatók számára. A bonyolult hagyományos matematikai módszerekkel összehasonlítva a Bond-grafikon segíthet a hallgatóknak számítási időt megtakarítani, hogy tanulmányaik során rövidebb tanulási görbével hatékonyan megkapják a dinamikus rendszer blokkdiagramját. Ez a disszertáció bemutatja a dinamikus rendszer numerikus és analitikus módszerét a mechatronikai mérnöki tudományokban. A numerikus rész a matematikai módszer ábrázolása Mechatronics engineering is an interdisciplinary subject created by a Japanese engineer decades ago, which contains complex theories in multiple domains. Some obstacles need to be overcome during the study of mechatronics engineering, the complexity of the theory, and the conversion from the schematic to the simulation code. The dissertation proposes the Bond Graph as a unique teaching method to help mechatronics engineering students overcome these obstacles. It is hard to understand the theoretical interdisciplinary subjects in mechatronics engineering based on the responses from the students. The Bond Graph has been proposed to apply to mechatronics engineering education, which could make difficult subjects easier for the students. The Bond Graph as a graphical language provides a modular method to divide the complex content into blocks. Mechatronics students can master the knowledge piece by piece, and then combine the modular knowledge to have the whole picture of the system. The Bond Graph provides students with a shorter learning curve compared with the traditional mathematics method. Compared with the complex traditional mathematical methods, the Bond Graph could help students save calculating time to efficiently get the dynamic system's block diagram with a shorter learning curve during their studies. This dissertation presents the numerical and analytical of the dynamic system in mechatronics engineering. The numerical part is the mathematical method representation of the dynamical system and examples. The analytical part is a novel graphical language representation using the Bond Graph. The dissertation is based on the teaching experience of the "modeling and simulation" subject over four years and it has been proved that the Bond Graph is more acceptable than the traditional mathematical methods to the mechatronics engineering students based on the final test results of the mechatronics engineering students over three years.Tétel Szabadon hozzáférhető BIM-based methods for optimizing the design and maintenance of telecommunications infrastructure in data centres(2024) Pogorelskiy, Sergey; Kocsis, Imre; Pogorelskiy, Sergey; Informatikai tudományok doktori iskola; Informatikai KarThe research entailed the completion of several tasks at different levels of complexity. These included the creation of plug-ins at the code level, the generation of models representing fundamental data centre elements such as telecommunications cabinets, equipment and cable routes, and the integration between the building management system (BMS) and temperature equipment at the algorithmic level. Furthermore, temperature control strategies utilising the corridor isolation method were implemented, and the selected blocks were chosen for their relative rarity within the field of study and their tangible real-world applications in the context of user level. Chapter 1 presents a discussion of the classification and structure of data centres, as well as an overview of the research background. The study was conducted in several phases, beginning with a comprehensive literature review. This was undertaken to identify the areas of engineering systems design and operation using BIM that have been the least researched. - The model was augmented with novel elements at the algorithmic level. An algorithmic approach was employed. Systems design and verification: - Development of a collision-checking plug-in at the code level; - Testing of BIM elements (families) and plug-in at the user level; Chapter 2 presents a methodology that can enhance data centre performance by optimising the configuration of tray and cable placements and the management of associated data. The method automates the formation of façade schemes and guarantees the accuracy of the specifications. The tray design plugin and dynamic cabinet family, as outlined in this section, facilitate the design and specification process, whilst also enhancing the profitability of FM. In conclusion, the aforementioned issues have been addressed and resolved. The newly created cabinet family enables the automated selection of the necessary equipment and its placement within the designated properties. The capacity for each cabinet to be filled in a unique manner eliminates the potential for errors to be introduced during the creation of façade diagrams. Moreover, all equipment is automatically incorporated into the specifications. The findings of this section will form the foundation for the initial thesis. Chapter 3 presents the methodology for collision checking, which is based on several key factors. Such factors include adherence to the prescribed sequence of checking systems, the exclusion of irrelevant collisions, and the establishment of tolerances when integrating system components. A special-purpose plug-in was developed to facilitate the implementation of the methodology. In the context of collision checking, three levels of analysis have been identified. At the code level, forms are created for the purpose of data visualisation, and computer code is developed for the logic that underpins the user interaction with the database. In the context of user-level interaction, users engage directly with the form for the purpose of searching for and visualising collisions, as well as eliminating individual collisions. The objective is to identify and eliminate collisions in accordance with a prescribed sequence of steps. Once a collision has been eliminated, an identifier is incorporated into the form in the form of a checkmark. This serves to indicate the successful elimination of the collision, the date of the elimination, and the name of the user who performed the elimination. The three levels are inextricably linked and collectively constitute the fundamental building blocks of the plugin's functionality. Given the potential for collisions to result in construction errors, it is of paramount importance to ensure the removal of any remaining collisions between the engineering systems once they have been correctly modelled. The novel approach to plugin development affords engineers the opportunity to enhance their design of all modelled systems. The new approach allows for the identification and correction of intersections approximately ten times faster, while also excluding duplicated intersections and tracking the history of each one. The findings of this section form the foundation for Thesis 2. Chapter 4 presents an analysis of the method associated with the connection between a building management system (BMS) and a building information model (BIM). The accurate monitoring of temperature and relative humidity is vital to ensuring the reliability of data centre equipment. In order to achieve this, the regulation of airflow can be employed as a means of controlling temperature and humidity. As the temperature increases, the equipment draws in a greater volume of cool air. Furthermore, the methodology employed for the collection of data from sensors and its integration into the facility management model is of significant importance. At present, the majority of engineers utilise a BMS that is distinct from the information model. However, in this research section, we propose a direct connection between the building management system (BMS) and the model. This will enhance the management of data centre data. In regard to the cooling of the equipment, there are a number of potential solutions. One of the most effective methods for enhancing the efficiency of a contemporary data centre is through the utilisation of isolation systems. This is due to the fact that the cooling system is the primary consumer of surplus capacity within the data centre. A reduction in load results in an increase in energy efficiency. In this section of the study, the two types of corridor isolation are compared on the basis of a data centre case study using computational fluid dynamics (CFD). The better option is then identified. The results presented in this section serve as the foundation for Thesis 3. Chapter 5 outlines the practical applications of the findings derived from the research. The efficacy of the aforementioned blocks has been evaluated in a multitude of authentic projects at CROC, encompassing a spectrum of sizes, from modest data centres comprising 15 telecom cabinets of 2kW each, to expansive commercial data centres with over 1000 cabinets of 6kW each, which lease their facilities to major organisations. Throughout the testing phase, feedback was obtained and the requisite adjustments were implemented. It can be posited that all proposed methodologies are currently in use.Tétel Szabadon hozzáférhető Efficiency Analysis of Some Cryptographic Primitives(2024) Major, Sándor Roland; Herendi, Tamás; Major, Sándor Roland; Informatikai tudományok doktori iskola; Informatikai Kar::Információ Technológia TanszékA disszertáció két kriptográfiai primitívhez kapcsolódó eredményeket mutat be. Ez a két primitív a véletlenszám generátorok és a lineáris kódok. A disszertáció első része egy algoritmuson alapszik, amely Herendi Tamás eredménye. Az algoritmussal olyan lineárisan rekurzív véletlenszám sorozatok generálhatók, amelyek egyenletes eloszlásúak, modulo 2 egy tetszőleges hatványa. A sorozat periódushossza és a sorozat elemeinek nagysága tetszőleges nagy lehet. A disszertációban bemutatott eredmények elméleti háttere Herendi Tamás és a szerző közös kutatásának eredménye. A gyakorlati alkalmazások fejlesztése, implementációja, valamint a tesztek implementációja és elemzése a szerző eredménye. A disszertáció második része a lineáris kódok keresésének problémájára épül. A cél adott, gyakorlatilag tetszőleges feltételeknek megfelelő linearis kódok generálása. A szerző által fejlesztett, Torch nevű szoftver egy kiterjeszthető, újrakonfigurálható megoldást nyújt a problémára. A Torch csomag több különböző keresési algoritmust, keresési feltételeket és egyéb opciókat támogat. Ezen keretrendszer elősegíti a kísérletezést és az új kutatási eredmények beépítését lineáris kódok keresése során. A szoftver felhasználható klasszifikációs problémákhoz, már ismert lineáris kódok generálásához, vagy jelenleg ismeretlen kódok kereséséhez. A disszertációban bemutatott eredmények elméleti háttere Carolin Hannusch és a szerző közös kutatásának eredménye. A szoftver fejlesztése, implementációja és elemzése a szerző eredménye.Tétel Szabadon hozzáférhető Emberközpontú algoritmusvizualizáció: élmény- és drámapedagógiai elemek hatása a számítógépes gondolkodás fejlesztésére(2024-09-05) Novák, Pálma-Rozália; Csernoch, Mária; Informatikai tudományok doktori iskola; Informatikai KarJohn Dewey pedagógus és filozófus szerint az igazi oktatás két világ – a valóság és az absztrakt tudás – találkozásáról és összefonódásáról szól, amelyek együttesen formálják a tanulók gondolkodását és szemléletét. Dewey elmélete szerint a valóság világában szerzett tapasztalatok és az absztrakt tudás világa együtt vezet a valódi megértéshez, mely azt a tényt hangsúlyozza ki, hogy az intézményeknek folyamatosan alkalmazkodniuk kell, hogy megfelelő tudást biztosítsanak a jövő generációinak. Sir Ken Robinson híres TED előadásában arra figyelmeztet, hogy a jelenlegi oktatási rendszer gyakran elfojtja a diákok kreativitását. Robinson hangsúlyozza, hogy a kreativitás és a divergens gondolkodás fejlesztése ugyanolyan fontos, mint a tudományos ismeretek átadása. A változatos oktatási módszerek, amelyek egyensúlyban tartják a tudományt és a művészetet növelhetik a diákok motivációját és elkötelezettségét. Jelen disszertáció az informatikaoktatás egy olyan módszerét mutatja be, amely egyedi módon, két látszólag különböző világ ötvözésével segíti a diákok számítógépes gondolkodásának fejlesztését úgy, hogy közben a tanulás és tanítás is egy élmény legyen.Tétel Szabadon hozzáférhető Construction of Pseudorandom Number Generators(2024) Padányi, Viktória; Herendi, Tamás; Padányi, Viktória; Informatikai tudományok doktori iskola; Informatikai Kar; Informatikai Kar::Számítógéptudományi TanszékGyakran használnak álvéletlenszám-generátorokat különböző elméleti és gyakorlati problémák megoldására. Ezeket a generátorokat alkalmazzák minden olyan területen, ahol szükség van véletlenszerű tesztadatokra vagy mintákra, például mesterséges intelligencia alkalmazásokban, szimulációkban, véletlenszerű algoritmusokban vagy pedig kriptográfiában. Két módszer létezik véletlenszámok sorozatának generálására: Az előállítás történhet álvéletlenszám-generátorokkal (PRNG) és valódi véletlenszám-generátorokkal (TRNG). Az álvéletlenszám-generátorok esetében általános megközelítés, hogy a sorozat elemeit rekurzív módon számítjuk ki az előző elemekből. A rekurzió a kezdeti mag (seed) felhasználásával indítható, amelyet iteratív módon kiszámítunk, majd a véletlenszerű értékeket ennek alapján származtatjuk. Az álvéletlenszám-generálásra léteznek elméleti és gyakorlati algoritmusok. Az elméleti megközelítés esetében a műveletek tetszőleges pontosságú számokon történnek (vagy végtelen halmazon), míg a gyakorlati módszer esetén fix pontosságú számokat használunk (általában véges halmazon, gyakran algebrai struktúrával). Mindkét esetben azonban elvárás a kapott sorozat egyenletes eloszlása, amit csak véges esetre definiáltunk. Azonban a sorozatok teljesen kiszámíthatóak és rendkívül hatékonyan tömöríthetőek, így nem képesek valódi, információelméletileg bizonyítható véletlen számok előállítására. Használat szempontjából érdekes kérdés az álvéletlenszám-generátorok tulajdonsága. Az eltérő alkalmazások más-más tulajdonságokat várnak el a generátoroktól. A felhasználás során fontos szempont lehet a generátor sebessége, valamint az erőforrásigénye, illetve az adott generátorok minősége, melyek statisztikai tesztekkel mérhetők. A statisztikai tesztek kulcsfontosságúak az álvéletlenszám-generátorok elemzésében. Kutatómunkám első lépéseként összegyűjtöttem néhány használatban lévő, egyenletes eloszlású elméleti és gyakorlati álvéletlenszám-generátort. A generátorokat tulajdonságuk és a használatban lévő próbák és vizsgálatok alapján rendeztem. A NIST teszt csomaggal vizsgáltam mélyebben az felsorolt generátorokat. A kutatásom következő periódusában részletes elemzést végeztem a négyzetközép módszerek csoportjába tartozó generátorokról, tanulmányoztam, hogy milyen fontos tulajdonságokkal rendelkeznek, illetve melyek az előnyös tulajdonságaik. A Neumann-féle négyzetközép módszerre fókuszáltam, amely során a számsorozatokat úgy generáljuk, hogy a kezdeti magértéket négyzetre emeljük, majd a kapott szám középső jegyei alkotják a következő számot. A periódus hossza a kezdeti értéktől függ, és rövid ciklusúnak bizonyult, azaz rövid számsorozat után ismétli önmagát. Ezt követően az általánosított számrendszerekkel folytattam a kutatást, Neumann János négyzetközép módszerét általánosítottam kanonikus számrendszerekre. A rendszerben két számjegy van (0,1) a sorozat pedig hasonló módon van definiálva: egy megfelelően megválasztott m-bites kezdőérték a kiindulás. Négyzetre kell emelni a magot, ki kell vágni a középső m-bitet, és ez a generátor következő magja. Ezekben a számrendszerekben a műveletvégzés hasonló a racionális egészekhez, viszont az átvitel számítsa kicsit komplikáltabb. Tehát, némileg bonyolultabb az átvitel reprezentációja. Dolgozatomban egy példát használok ennek a számításnak a levezetéséhez. A disszertációmban megtalálható a négyzetközép-módszer általánosítása, illetve ezen generátorok elemzése bináris kanonikus számrendszerekben. Kutatásom másik témája az automatákkal kapcsolatos. Definiáltam egy polinom információmennyiségét a CNS polinomhoz viszonyítva, és megmutattam, hogy szoros kapcsolatban áll a számrendszerbeli reprezentáció hosszával. Eredményeim alapján sikerült igazolnom, hogy minden kanonikus számrendszer polinomhoz létezik egy véges automata, amely képes a P alapú kanonikus reprezentációban a polinomok összeadásának végrehajtására. Végül elemeztem ezeknek az automatáknak a méretét, azaz az állapotok számát. Finomítottam B. Kovács - A. Pethő számolását, amivel a számok kanonikus számrendszerekben való felírásának hossza megbecsülhető. Az elért becslések segítségével korlátokat számolhatunk a fix hosszúságú négyzetek hosszára. A továbbiakban, a műveletvégzés volt fontos. Ennek célja elsősorban az volt, hogy megvizsgáljam hogyan alakul a négyzetszámok hossza számított korlátokhoz képest. A vizsgálatok elsődlegesen a négyzetközép-módszer miatt voltak érdekesek, ezért a négyzetre emelés tulajdonságait elemeztem mind gyakorlati mind elméleti szempontból. Többek között bizonyítottam, hogy tetszőleges kanonikus számrendszerhez létezik egy átalakító automata, amely az adott számrendszerben összeadás műveletét hajtja végre. Ehhez készítettem egy algoritmust, ami meghatározza a minimális összeadó automatát, ha a számrendszer egy bináris kanonikus számrendszer. Az összeadás tulajdonságai alapján elkészítettem egy algoritmust a Gray-kód felhasználásával, amely az algebrai egész számok négyzetét. A konstrukció segítségével elemeztem a négyzetre emelés néhány tulajdonságát bináris kanonikus számrendszerekben. Kutatásom ezen részének eredménye, hogy fel tudom sorolni az összes n hosszúságú négyzetszámokat. Az értekezés utolsó fejezetében bemutatom az algoritmust és azok megfigyeléseit.Tétel Szabadon hozzáférhető Többcímkés mélytanuló hálózatok optimalizálása orvosi képfeldolgozási feladatokra(2024) Katona , Tamás; Harangi, Balázs; Informatikai tudományok doktori iskola; Informatikai Kar::Adattudomány és Vizualizáció TanszékEbben a disszertációban a többcímkés osztályozás problémakörét vizsgáltuk meg mellkasröntgen felvételeken. A mellkasröntgen felvételek elemzése kritikus jelentőségű a különböző tüdő, szív és sok más betegség diagnosztizálásában. A többcímkés osztályozás lehetővé teszi, hogy egy adott röntgenfelvételen több betegség jelenlétét is detektálja. Ez különösen fontos, mivel egyetlen felvételen egyszerre több betegség is előfordulhat. Az általunk vizsgált megközelítések a mélytanulási modellek hatékonyságára és pontosságára építenek, különös tekintettel a CNN-ek alkalmazásával.Tétel Szabadon hozzáférhető Sustainable Networking: A Study on Power Optimization in DCNs Using Traffic-Aware Methods, Along with SD-DCNs Emulation Strategies(2024) Al-shamarti, Mohammed; Kovásznai, Gergely; Informatikai tudományok doktori iskola; Informatikai KarData Center Networks (DCNs) form the backbone of many Internet applications and services that have become essential in daily life. Energy consumption in these networks causes both economic and environmental issues. It is reported that 10% of global energy consumption is due to ICT and network usage. Computer networking equipment is designed to accommodate network traffic; however, the level of use of the equipment is not necessarily proportional to the power consumed by it. For example, DCNs do not always run at full capacity, yet the fact that they are supporting a lighter load is not reflected by a reduction in energy consumption. DCNs have been shown to unnecessarily over-consume energy when they are not fully loaded. In this dissertation, we propose a new framework that reduces power consumption in software-defined DCNs. The proposed approach consists of a new Integer Programming model and a heuristic link utility-based algorithm that strives for a balance between energy consumption and performance. We evaluate the proposed framework using an experimental platform, which consists of a POX controller and the Mininet network emulator. Compared with the state-of-the-art approach, the Equal Cost Multi-Path (ECMP) algorithm, the results show that the proposed method reduces power consumption by up to 10% when the network is experiencing a high traffic load and 63.3% when the traffic load is low. Based on these results, we outline how machine learning approaches could be used to further improve our approach to maintain the Quality of Service (QoS) at an acceptable level, specifically for real-time traffic using a Neural Network algorithm. The findings suggest that the proposed machine learning approach shows promising potential for optimizing power consumption while keeping the quality of the connection within SD-DCNs.Tétel Szabadon hozzáférhető Advanced Motion Control In Robotic Patient Positioning System For Brain Cancer Radiosurgery(2024-06-12) Saadah, Alaa; Husi, Géza; Saadah, Alaa; Informatikai tudományok doktori iskola; Műszaki KarRadiosurgery is essential in treating brain cancer, demanding high precision to target tumors effectively while minimizing damage to surrounding healthy tissues. This research enhances the precision and safety of radiosurgery using an advanced Robotic Patient Positioning System (PPS). The study addresses several key challenges, including precise radiation targeting, patient fixation, and the integration of a patient positioning bed with six degrees of freedom. Our primary research questions focus on achieving 0.1 mm accuracy in patient positioning, developing solutions to overcome mechanical backlash, implementing multi-layered safety protocols in both hardware and software, and reducing radiation exposure to healthy tissues. Through detailed kinematics studies, advanced motion control strategies, and robust safety protocols, our innovative system aims to significantly improve the accuracy and reliability of radiosurgery. The research employs a comprehensive approach, starting with kinematic model development and validation to ensure precise calculations of bed movements. Advanced algorithms address potential mechanical issues such as backlash. The dual-loop control systems enhance motor movement precision, ensuring sub-millimeter accuracy required for effective radiosurgery.\\ Safety is paramount in this research. Multi-layered safety protocols monitor and control the system in real-time, integrating hardware and software safety measures. The system incorporates real-time monitoring using high-resolution tracking to continuously verify patient position and orientation. The findings demonstrate that integrating the patient positioning bed as a subsystem achieves the desired precision and stability for effective treatment. Additionally, multi-layered safety protocols ensure accuracy enhancements do not compromise timing and efficiency. The advanced safety measures significantly reduce the risk of radiation exposure to healthy tissues, minimizing side effects. In conclusion, this state-of-the-art robotic positioning system represents a significant advancement in radiosurgery, offering improved outcomes and reduced side effects for patients undergoing brain cancer treatment. This research provides a novel approach to enhancing the precision and safety of radiosurgery, setting a new standard for future developments in this field.Tétel Embargó alatt IoT eszközök és szenzor adatok integrálhatósága kórházinformatikai rendszerekbe(2024) Péntek, István; Adamkó, Attila; Péntek; Informatikai tudományok doktori iskola; Informatikai KarA mai egészségügyi informatikai rendszerek számára a jelenlegi informatikai trendek nagyon sok fejlődési lehetőséget kínálnak. A hálózatok fejlődésével és a hordozható aktivitásfigyelő eszközök elterjedésével olyan új lehetőségek nyílnak meg a hagyományos egészségügyi informatikai rendszerek előtt, amelyek javíthatják a szolgáltatások minőségét. Számtalan IoT eszköz, hordozható aktivitásfigyelő eszköz vagy okosóra érhető el a piacon, amelyek a legkülönfélébb módon működnek. A bioszenzoros eszközök körében sajnos még nem alakult ki olyan egységes szabvány, amely segítségével szabványos módon lenne lehetőség az eszközökkel való kommunikációra. A mérési adatok formátuma és a mérési adatok kinyerése az egyes eszközökből gyártónkként eltérő, így különféle megközelítést és implementációt igényel. Az egészségügyi rendszerek saját szakterületi szabványok használatával működnek, ezeket nemzetközi szinten is használják. Ezen szabványok felhasználásával kialakítható olyan rendszer, amely az egyének által használt eszközök bioszenzoros adatait befogadva és osztályozva segíti a hagyományos korházinformatikai rendszerek működését anélkül, hogy azoknak az egyes eszközgyártók által specifikált egyedi szabványokról és protokollokról bármit is tudnia kellene. Ilyen módon az egészségügyi rendszerekbe különféle forrásokból érkezhetnek leíró adatsorok, amelyek javíthatják az egészségügyi ellátás minőségét. Az adatok felhasználása során az egészségügyi rendszerek támaszkodhatnak a hub rendszer által történő osztályozásra vagy akár felhasználhatják az IoT eszközökről származó idősorokat saját analitikákhoz.Tétel Szabadon hozzáférhető Tudástranszferelemek szerepe a hatékony számítógépes problémamegoldásban(2024) Horváthné Nagy, Tímea; Csernoch, Mária; Nagy, Tímea; Informatikai tudományok doktori iskola; Informatikai Kar::Számítógéptudományi TanszékEgy hatalmas iparág épül a végfelhasználókra (end-users), de aligha foglalkozik valaki azzal, hogy mennyire alkalmazzák hatékonyan és eredményesen mind a módszertanokat, mind a számukra kifejlesztett eszközöket, és mennyire hatékonyan használják ki az ezekre a tevékenységekre alkalmas erőforrásokat. Elsősorban a vállalatok – mind a hardvergyártók, mind a szoftvergyártók – és még sok más kísérő iparág profitál a végfelhasználókból, a digitális kompetenciák hiányából és az alacsony szintű számítógépes gondolkodási készségekből, képességekből. A kérdés azonban nem az, hogy egyes csoportok mekkora profitot termelnek, hanem az, hogy mennyi veszteség keletkezik, szinte észrevétlenül. Az oktatás a végfelhasználói tevékenységek egyik elsődleges platformja. A cégek ugyan elárasztották a végfelhasználókat eszközeikkel és felhasználóbarát szlogenjeikkel, de képtelenek voltak valódi felhasználóbarát módszereket létrehozni, támogatva ezzel a tanulás-tanítás folyamatát. Általánosságban elmondható, hogy a számítógépes oktatás egy toló (push) termelési rendszer, amely definíció szerint veszteséget termel. Látszatra az oktatás sokat nyer, hiszen a köz-, és a tanfolyami oktatás, valamint az oktatási segédanyagok biztosítása egy hatalmas iparágat működtet. Másrészt az oktatás a legnagyobb vesztese ennek a helyzetnek, mivel a végfelhasználói tevékenységben és a termelésben nem mutatható ki jelentős előrehaladás. A magyarországi informatikaoktatás problémáinak és az elsőéves informatikus hallgatók teszteredményeinek ismeretében mini-kompetenciatesztet terveztünk az általános és középiskolások (7–10. évfolyam) informatikai képességeinek mérésére. A teszt célja az informatikaoktatás hatékonyságának vizsgálata, a konkrét tudáselemek azonosítása, valamint a tudástranszferelemek aktiválásának mérése. Az eredményekkel rávilágíthatunk arra, hogy a számítógépes és számítógéppel támogatott oktatásban alkalmazott és széles körben elfogadott, eszközorientált, tudástranszferelemeket nélkülöző megközelítések alacsony hatékonyságú számítógépes problémamegoldáshoz vezetnek, melynek további következménye az informatikai felsőoktatásban az óriási hallgatói lemorzsolódás, az iparban az informatikus hiány, valamint a nem-professzionális informatikában keletkező óriási anyagi veszteségek, amelyek a hanyag adatkezelés következményei.