Informatikai Tudományok Doktori Iskola
Állandó link (URI) ehhez a gyűjteményhez
Informatikai Kar
Informatikai Tudományok Doktori Iskola
(vezető: Dr. Baran Sándor)
Természettudományi és Informatikai Doktori Tanács
tudományterület:
- műszaki tudományok
tudományág:
- informatika tudományok
Doktori programok:
- Adattudomány és vizualizáció
Data science and visualization
(programvezető: Dr. Hajdu András) - Alkalmazott információ technológia és elméleti háttere
Applied Information Technology and its Theoretical Background
(programvezető: Dr. Terdik György) - Elméleti számítástudomány, adatvédelem és kriptográfia
Theoretical computer science, data security and cryptography
(programvezető: Dr. Pethő Attila) - Az információ technológia és a sztochasztikus rendszerek elméleti alapjai és
alkalmazásai
Theoretical foundation and applications of information technology and stochastic systems
(programvezető: Dr. Fazekas István) - Informatikai rendszerek és hálózatok ipari alkalmazásokkal
Information Technology Systems and Networks with Industrial applications
(programvezető: Dr. Sztrik János)
Böngészés
Informatikai Tudományok Doktori Iskola Cím szerinti böngészés
Megjelenítve 1 - 20 (Összesen 108)
Találat egy oldalon
Rendezési lehetőségek
Tétel Szabadon hozzáférhető Advanced Metaheuristics for OptimizationSabagh Nejad, Anahita; Fazekas, Gabor; Informatikai tudományok doktori iskola; Informatikai KarThe main purpose of this dissertation is to introduce two new advanced methods of solving a Traveling salesman problem (TSP) using metaheuristics. Solving TSP is important as it is an NP-hard and can’t be solved in a polynomial time. In my new methods, I applied k-means to cluster the data into smaller parts and I used the Whale Optimization algorithm (WOA) as a bio-inspired algorithm. I merged TSP with K-means and WOA, and I assigned a number for thresholding (T- value) to decide the maximum number of cities that can be placed in each cluster. This way the fitness function and timing of solving TSP improved. The two methods have close pseudocodes. There is a third model as well that is proposed for future works.Tétel Szabadon hozzáférhető Advanced Motion Control In Robotic Patient Positioning System For Brain Cancer RadiosurgerySaadah, Alaa; Husi, Géza; Alaa, Alaa; Informatikai tudományok doktori iskola; Műszaki Kar::Mechatronikai TanszékRadiosurgery is essential in treating brain cancer, demanding high precision to target tumors effectively while minimizing damage to surrounding healthy tissues. This research enhances the precision and safety of radiosurgery using an advanced Robotic Patient Positioning System (PPS). The study addresses several key challenges, including precise radiation targeting, patient fixation, and the integration of a patient positioning bed with six degrees of freedom. Our primary research questions focus on achieving 0.1 mm accuracy in patient positioning, developing solutions to overcome mechanical backlash, implementing multi-layered safety protocols in both hardware and software, and reducing radiation exposure to healthy tissues. Through detailed kinematics studies, advanced motion control strategies, and robust safety protocols, our innovative system aims to significantly improve the accuracy and reliability of radiosurgery. The research employs a comprehensive approach, starting with kinematic model development and validation to ensure precise calculations of bed movements. Advanced algorithms address potential mechanical issues such as backlash. The dual-loop control systems enhance motor movement precision, ensuring sub-millimeter accuracy required for effective radiosurgery. Safety is paramount in this research. Multi-layered safety protocols monitor and control the system in real-time, integrating hardware and software safety measures. The system incorporates real-time monitoring using high-resolution tracking to continuously verify patient position and orientation. The findings demonstrate that integrating the patient positioning bed as a subsystem achieves the desired precision and stability for effective treatment. Additionally, multi-layered safety protocols ensure accuracy enhancements do not compromise timing and efficiency. The advanced safety measures significantly reduce the risk of radiation exposure to healthy tissues, minimizing side effects. In conclusion, this state-of-the-art robotic positioning system represents a significant advancement in radiosurgery, offering improved outcomes and reduced side effects for patients undergoing brain cancer treatment. This research provides a novel approach to enhancing the precision and safety of radiosurgery, setting a new standard for future developments in this field.Tétel Szabadon hozzáférhető Advanced Motion Control In Robotic Patient Positioning System For Brain Cancer RadiosurgerySaadah, Alaa; Husi, Géza; Saadah, Alaa; Informatikai tudományok doktori iskola; Műszaki KarRadiosurgery is essential in treating brain cancer, demanding high precision to target tumors effectively while minimizing damage to surrounding healthy tissues. This research enhances the precision and safety of radiosurgery using an advanced Robotic Patient Positioning System (PPS). The study addresses several key challenges, including precise radiation targeting, patient fixation, and the integration of a patient positioning bed with six degrees of freedom. Our primary research questions focus on achieving 0.1 mm accuracy in patient positioning, developing solutions to overcome mechanical backlash, implementing multi-layered safety protocols in both hardware and software, and reducing radiation exposure to healthy tissues. Through detailed kinematics studies, advanced motion control strategies, and robust safety protocols, our innovative system aims to significantly improve the accuracy and reliability of radiosurgery. The research employs a comprehensive approach, starting with kinematic model development and validation to ensure precise calculations of bed movements. Advanced algorithms address potential mechanical issues such as backlash. The dual-loop control systems enhance motor movement precision, ensuring sub-millimeter accuracy required for effective radiosurgery.\\ Safety is paramount in this research. Multi-layered safety protocols monitor and control the system in real-time, integrating hardware and software safety measures. The system incorporates real-time monitoring using high-resolution tracking to continuously verify patient position and orientation. The findings demonstrate that integrating the patient positioning bed as a subsystem achieves the desired precision and stability for effective treatment. Additionally, multi-layered safety protocols ensure accuracy enhancements do not compromise timing and efficiency. The advanced safety measures significantly reduce the risk of radiation exposure to healthy tissues, minimizing side effects. In conclusion, this state-of-the-art robotic positioning system represents a significant advancement in radiosurgery, offering improved outcomes and reduced side effects for patients undergoing brain cancer treatment. This research provides a novel approach to enhancing the precision and safety of radiosurgery, setting a new standard for future developments in this field.Tétel Szabadon hozzáférhető Advances in the theory and applications of (dis)similarity functions in pattern recognitionKovács, György; Fazekas, Attila; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Komputergrafika és képfeldolgozás tanszékA mintázatfelismeréshez (pattern recognition) kapcsolódó alkalmazások többségében megjelenik a hasonlóság fogalma: a valós világ számvektorokkal jellemezhető objektumainak egyfajta hasonlóságát kell meghatároznunk. Ehhez kapcsolódóan a hasonlóságot jellemzően vektorokon operáló ún. hasonlósági függvények / hasonlósági mértékek formájában definiáljuk. Természetesen az, hogy mit tekintünk hasonlónak, vagy éppen különbözőnek, általában a problémától, illetve az alkalmazási területtől függ. Mindazonáltal a legtöbb hasonlósági függvénynek van egy közös tulajdonsága: invariánsak a vektorok bizonyos transzformációival szemben. Például arcfelismerést megvalósító alkalmazásokban -- amelyek ma már az emberi érzékeléssel összemérhető teljesítményre képesek -- a hasonlóság mérőszámának invariánsnak kell lennie a képek alul- vagy éppen túlexponált jellegére, additív zajokra, geometriai- és színtranszformációkra, mivel egy bizonyos pontig ezen transzformációk megőrzik az alkalmazás szempontjából lényeges tartalmat: az arcot. A gyakorlatban jellemzően a probléma és az alkalmazási terület határozza meg, hogy mely transzformációkkal szemben kell a hasonlósági függvénynek -- a lehetőségekhez mérten -- invariánsnak lennie. Ha az objektumokat leíró vektorok koordinátáit hasonlóan értelmezhetjük (például egy kép minden pixele egy intenzitásinformációt hordoz, egy árfolyam idősor minden eleme egy árat jelent), jól használhatók azon hasonlósági függvények, melyek valamely nagy függvényosztályra nézve invariánsak, például a lineáris vagy sima, de nem-lineáris, monoton vagy nem-monoton transzformációkra. Ennek megfelelően a bizonyos transzformációosztályokra invariáns hasonlósági függvények elméletében, illetve a hasonlósági függvények újszerű alkalmazásaiban elért eredmények a mintázatfelismeréshez kapcsolódó számos területen találhatnak alkalmazásra. A dolgozatban bizonyos transzformációosztályokra invariáns hasonlósági függvényekhez kapcsolódó új eredményeket, illetve hasonlósági függvények újszerű alkalmazási lehetőségeit ismertetjük.Tétel Korlátozottan hozzáférhető Algebraic Properties of Petri Net Languages and CodesYoshiyuki, Kunimochi; Dömösi, Pál; Informatikai tudományok doktori iskolaPetri nets are graphical and mathematical modeling tools applicable to many systems. They are promising tools for describing and studying information processing systems that are characterized as being concurrent, asynchronous, distributed, parallel, nondeterministic, and/or stochastic. However, in many applications modeling by itself is of limited practical use if one cannot analyze the modeled system. As means of gaining a better understanding of the Petri net model, the decidability and computational complexity of typical automata theoretic problems concerning Petri nets have been extensively investigated in the past four decades.Tétel Szabadon hozzáférhető Algoritmusok és implementációk a swarm intelligencia területénBolla, Kálmán Milán; Fazekas, Gábor; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Információ Technológia TanszékDoktori disszertációm fő célja a mobil robotokkal végrehajtható feladatok vizsgálata és új megoldások kidolgozása volt. Kutatásaim során elsősorban mobil robot swarm-okkal foglalkoztam, ahol a feladatok végrehajtásához egyetlen robot helyett több robotot is felhasználunk. Disszertációmat három fejezetre bontottam szét. Az első fejezetben bemutatok egy saját fejlesztésű társrobot felismerő és azonosító eljárást, a második fejezetben a szinkrón és aszinkrón gyülekezéssel kapcsolatban kutatásaimat részletezem, végül az utolsó fejezetben tárgyalom saját vizuális érzékelésen alapuló robot navigációs megoldásomat.Tétel Szabadon hozzáférhető Analitikus és numerikus számítási módszerek néhánytest-rendszerek kvantummechanikai modelljébenHornyák, István; Kruppa, András Tibor; Informatikai tudományok doktori iskola; MTA Atommagkutató Intézet -- Elméleti Fizikai OsztályDoktori munkám során a kvantummechanikai kéttest-Coulomb-szórást vizsgáltam a felületi integrálos formalizmus és a komplex skálázás aspektusából. A szóráselmélet felületi integrálos formalizmusa azért nagy jelentőségű, mert egyformán alkalmazható rövid hatótávolságú és Coulomb-potenciál esetén. Ez a formalizmus lehetővé tette töltött háromtest-rendszerek esetén a szórási amplitúdó poszt formájának megadását a teljes felbomlási küszöb felett. Saját matematikai eredményeimre építve meghatároztam a felületi integrálos formalizmusban alapvető jelentőséggel bíró Coulomb-módosított síkhullám aszimptotikus alakját, és kifejlesztettem egy algoritmust (és annak matematikai hátterét is), mellyel numerikusan számolható a Coulomb-módosított síkhullám. A szórási számítások nehézségét az okozza, hogy a Schrödinger-egyenlet keresett megoldásának aszimptotikus alakja nem egyszerű. A Schrödinger-egyenlet transzformációja révén olyan inhomogén egyenletet kaphatunk, amelyben a keresett megoldás aszimptotikusan eltűnik. Ilyen típusú egyenlet numerikus megoldása sokkal egyszerűbb, mint az eredeti szórási aszimptotika biztosítása. A komplex skálázás alkalmazása ilyen egyszerűsödésre vezet rövid hatótávolságú potenciálok esetén. Megmutattuk hogyan alkalmazható a módszer Coulomb-potenciál jelenléte esetén.Tétel Szabadon hozzáférhető Analytics of Non-Technical Loss DetectionGhori, Khawaja MoyeezUllah; Szathmáry, László; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Információ Technológia TanszékA nem-technikai veszteségek (Non-Technical Loss, NTL) komoly anyagi károkat okoznak az áramszolgáltató vállalatoknak. Az NTL detektálására a szakirodalomban többen is gépi tanulásos osztályozókat használnak. Az NTL detektálására egy valós adathalmazon kezdtünk el dolgozni, melyet egy pakisztáni áramszolgáltató bocsátott a rendelkezésünkre. A dolgozatban egy olyan saját módszert mutatunk be, amivel ki lehet választani – az NTL detektálása céljából – egy adathalmaz jellemzőinek az optimális számát. Azt figyeltük meg, hogy az NTL detektálás szempontjából nem minden jellemző játszik azonos fontosságú szerepet. A dolgozatban bemutatunk egy direkt erre a célra kifejlesztett algoritmust, ill. számos gépi tanulásos módszert hasonlítunk össze annak kiderítése céljából, hogy melyik a leghatékonyabb, valamint melyiket érdemes használni az NTL detektálása céljából.Tétel Szabadon hozzáférhető Approximation of Sets Based on Partial CoveringCsajbók, Zoltán Ernő; Mihálydeák, Tamás; Pethő, Attila; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar -- DE--TEK--Informatikai Kar --The subject of the thesis is the set approximation. First, in the early 1980's, Z. Pawlak raised the question what would happen if the subsets of a ground set should be approximated by a beforehand predefined family of subsets of the ground set itself. In Pawlak's rough set theory, the sets used for approximation are the equivalence classes which are pairwise disjoint and cover the ground set. If we do not require the pairwise disjoint property, we get a possible generalization of the theory. Its detailed elaboration can be found in the literature. The main question of the thesis is what would happen if we gave up not only the pairwise disjoint property but also the covering of the ground set. First, the minimal requirements as against the generalization of lower and upper approximations are formulated. It is shown that both Pawlak's rough set theory and the approximation of sets based on partial covering meet these requirements. Next, it is enlarged on how the properties of the lower and upper approximations based on partial covering change compared to Pawlak's well known ones. The results concerning the Galois connection of upper and lower approximations are discussed in a separate chapter which contains a necessary and sufficient condition. Finally, the practical implications of the new approach are illustrated by a few examples. Az értekezés tárgya halmazok közelítése. Elsőként Z. Pawlak lengyel matematikus vetette fel az 1980-as évek elején, hogy mi történne akkor, ha egy alaphalmaz részhalmazait előre megadott részhalmazaival közelítenénk. A Pawlak-féle közelítő halmazelméletben (rough set theory) a közelítésre használt halmazok ekvivalenciaosztályok, amelyek páronként diszjunktak és lefedik a teljes alaphalmazt. Az elmélet egy lehetséges általánosítása a páronkénti diszjunktság feloldása. Ennek részletes kidolgozása megtalálható az irodalomban. A dolgozat fő kérdése az, hogy mi történik akkor, ha nemcsak a páronkénti diszjunktságot, hanem a teljes lefedést is feladjuk. Az értekezés megfogalmazza az általánosítás minimum követelményrendszerét. Megmutatja, hogy mind a Pawlak-féle, mind a parciális lefedésen alapuló halmazközelítés kielégíti azt. Ezt követően részleteiben is áttekinti, hogy a parciális lefedésen alapuló alsó-felső közelítések tulajdonságai hogyan változnak a Pawlak-féle közelítések jól ismert sajátosságaihoz képest. Külön fejezet tárgyalja a felső-alsó közelítések Galois kapcsolatára vonatkozó eredményeket, amelyben egy szükséges és elégséges feltétel megadására is sor kerül. Az értekezés az új megközelítés gyakorlati alkalmazásait bemutató példákkal zárul.Tétel Szabadon hozzáférhető Aszimptotikus eredmények a valószínűségszámítás területénPecsora, Sándor; Fazekas, István; Informatikai TudományokDoktori Iskola; Debreceni Egyetem::Informatikai Kar::Alkalmazott Matematikai és Valószínűségszámítási TanszékA disszertáció a valószínuségelmélet határérték tételei témakörébe tartozó néhány eredményt tartalmaz. A 2. és a 3. fejezet a nagy számok törvényeihez tartozó aszimptotikus tételeket és a velük kapcsolatos egyenlotlenségeket tárgyalja, a 4. fejezet pedig véletlen zajjal terhelt mátrixok sajátértékeinek aszimptotikus viselkedését elemzi. A 2. és 3. fejezet egymással szoros összefüggésben van, míg a 4. fejezet a korábbi kettohöz egy tételen keresztül kapcsolódik. A disszertációban megtartottuk a megjelent cikkek szerkezetét, de a cikkeket kiegészítettük néhány magyarázattal és részletesebb bizonyításokkal.Tétel Korlátozottan hozzáférhető Az internetes keresők lekérdezési hatékonyságának vizsgálataTóth, Erzsébet; Fazekas, Gábor; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar--Információ Technológia TanszékA vizsgálat eredményei arra engednek következtetni, hogy az angol nyelv keres k rosszabbul kezelik és értelmezik a magyar nyelv kereséseket, mint az angol nyelv eket. Ezekben a keres eszközökben a csonkolás és a szinonimákra történ keresés eredményesen m ködik az angolban, de meglehet sen problémás a magyar nyelvben. A Google keres nem veszi figyelembe a határozott és a határozatlan nével ket az angol nyelv kereséseknél, azonban még nem oldotta meg ezt a kérdést a magyar nyelvben. Az Altavista keres megtalálja az angol nyelv keres kérdések többes számú alakját, ezért ez az egyedüli olyan szolgáltatás, ahol a morfológiai elemzés hatékonyan m ködik az angolban. Az angol nyelv keres k közül egyik sem küzdött meg ezzel a problémával a magyar nyelvben. Elmondható a Google és az Altavista szolgáltatásokról, hogy azok azonos teljesítményt nyújtottak a keres kérdések értelmezésében, utánuk pedig az AlltheWeb keres következik a rangsorban. A kapott eredmények alapján levonható az a következtetés, hogy ezeknek a keres knek még nagyobb hangsúlyt kellene fektetniük a morfológiai elemzésre, a stopszavak és az ékezetek kezelésére a jöv beli fejlesztésükben... ----- The results of this study let me conclude that English search engines handle queries for Hungarian terms worse than they handle English terms. In these search tools truncation and searching for synonyms work properly in English but it is problematic in Hungarian. Google omits definite and indefinite articles in the English queries, but it has not solved this issue yet for Hungarian queries. AltaVista is good at finding the plural form of the English queries, so this is the only service where stemming works properly in English. However, none of the English services coped with this problem in the Hungarian language. It can be said that Google and AltaVista are equal in their performance of interpreting queries, followed by AlltheWeb. On the basis of these findings, I can draw the conclusion that more emphasis should be placed on stemming, handling of stopwords and diacritics in the future development of these search engines....Tétel Szabadon hozzáférhető Baricentrikus koordinátákon alapuló deformációs technikák hatékonyabb használatát segítő módszerek fejlesztéseTóth, Ákos; Kunkli, Roland Imre; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Komputergrafika és Képfeldolgozás TanszékAz elmúlt években a baricentrikus koordináták elméleti szakirodalma nagymértékben kibővült, illetve számos komputergrafikai alkalmazás építőköveként is rendszeresen megjelennek a kedvező tulajdonságaik miatt. Gyakran használatosak különböző adatok lineáris interpolációjára, háromszöghálók paraméterezésére, kép- és modelldeformációra, valamint végeselem módszerek esetén. A disszertációban az általános baricentrikus koordinátákon alapuló deformációs technikák vizsgálatával, illetve a használatukat segítő módszerek kifejlesztésével foglalkoztunk. A dolgozatban részletesen összehasonlítottuk a Wachspress-, a diszkrét harmonikus és a középérték koordináta-módszereket a kontúrvonalaik mintázata alapján. Megvizsgáltuk a különböző háromszögelési technikákat a baricentrikus koordinátákon alapuló képdeformációs módszerek vonatkozásában. Kifejlesztettünk egy olyan módszert, ami egy tetszőleges háromdimenziós modellhez képes automatikusan ketrecmodellt meghatározni, mely a baricentrikus koordinátákon alapuló háromdimenziós modelldeformáció egyik feltétele. Továbbá a dolgozatban ismertetjük az MPEG-4 szabványt támogató félig automatikus algoritmusunkat, mely egy tetszőleges modell animációra felkészítő kalibrációját képes elvégezni.Tétel Szabadon hozzáférhető Benchmarking and Utilization of NoSQL Databases - A New VisionAlzaidi, Mustafa; Vágner, Anikó Szilvia; Informatikai tudományok doktori iskola; Informatikai KarThis dissertation explores the many aspects of NoSQL databases, with an emphasis on two key principles. First, we'll discuss NoSQL database benchmarking, an essential step toward selecting the right system for particular requirements. And then focused on leveraging NoSQL database capabilities to enhance performance in practical applications. In this dissertation, we will discuss the importance of benchmarking, the methods used to conduct benchmarks, and the most used benchmarking software. Then, compare Redis and HBase, two popular key-value NoSQL databases, using the Yahoo Cloud Service Benchmarking Tool (YCSB). And take a look at how they were rated on the job. In addition, the dissertation will provide a trip planning algorithm (one that can determine the best routes between two specified points) and provide an overview of GTFS data. Then, present the strategy of employing the Redis NoSQL database to accelerate the process of discovering a trip plan utilising GTFS data. Discovering potential routes and verifying them in light of the trip's schedule are the two main components of the trip planning process. An algorithm for validating trips in accordance with the trip schedule will be presented in the dissertation. The Range Mapping Hash is a Redis structure that was designed to speed up the trip time verifying process; it is another example of the use of a NoSQL database. In the dissertation, the performance of both trip planning and trip time validation are measured and compared with and without the proposed method of utilizing NoSQL database. One of the problems with the most widely used benchmarking tools and methods today is that they do not account for the specifics of the benchmarking application. Using the GTFS trip planner application as an example, this paper will introduce the method of benchmarking the database based on application interaction. In this section, we will compare Redis and MongoDB as storage for GTFS databases.Tétel Szabadon hozzáférhető BIM-based methods for optimizing the design and maintenance of telecommunications infrastructure in data centresPogorelskiy, Sergey; Kocsis, Imre; Pogorelskiy, Sergey; Informatikai tudományok doktori iskola; Informatikai KarThe research entailed the completion of several tasks at different levels of complexity. These included the creation of plug-ins at the code level, the generation of models representing fundamental data centre elements such as telecommunications cabinets, equipment and cable routes, and the integration between the building management system (BMS) and temperature equipment at the algorithmic level. Furthermore, temperature control strategies utilising the corridor isolation method were implemented, and the selected blocks were chosen for their relative rarity within the field of study and their tangible real-world applications in the context of user level. Chapter 1 presents a discussion of the classification and structure of data centres, as well as an overview of the research background. The study was conducted in several phases, beginning with a comprehensive literature review. This was undertaken to identify the areas of engineering systems design and operation using BIM that have been the least researched. - The model was augmented with novel elements at the algorithmic level. An algorithmic approach was employed. Systems design and verification: - Development of a collision-checking plug-in at the code level; - Testing of BIM elements (families) and plug-in at the user level; Chapter 2 presents a methodology that can enhance data centre performance by optimising the configuration of tray and cable placements and the management of associated data. The method automates the formation of façade schemes and guarantees the accuracy of the specifications. The tray design plugin and dynamic cabinet family, as outlined in this section, facilitate the design and specification process, whilst also enhancing the profitability of FM. In conclusion, the aforementioned issues have been addressed and resolved. The newly created cabinet family enables the automated selection of the necessary equipment and its placement within the designated properties. The capacity for each cabinet to be filled in a unique manner eliminates the potential for errors to be introduced during the creation of façade diagrams. Moreover, all equipment is automatically incorporated into the specifications. The findings of this section will form the foundation for the initial thesis. Chapter 3 presents the methodology for collision checking, which is based on several key factors. Such factors include adherence to the prescribed sequence of checking systems, the exclusion of irrelevant collisions, and the establishment of tolerances when integrating system components. A special-purpose plug-in was developed to facilitate the implementation of the methodology. In the context of collision checking, three levels of analysis have been identified. At the code level, forms are created for the purpose of data visualisation, and computer code is developed for the logic that underpins the user interaction with the database. In the context of user-level interaction, users engage directly with the form for the purpose of searching for and visualising collisions, as well as eliminating individual collisions. The objective is to identify and eliminate collisions in accordance with a prescribed sequence of steps. Once a collision has been eliminated, an identifier is incorporated into the form in the form of a checkmark. This serves to indicate the successful elimination of the collision, the date of the elimination, and the name of the user who performed the elimination. The three levels are inextricably linked and collectively constitute the fundamental building blocks of the plugin's functionality. Given the potential for collisions to result in construction errors, it is of paramount importance to ensure the removal of any remaining collisions between the engineering systems once they have been correctly modelled. The novel approach to plugin development affords engineers the opportunity to enhance their design of all modelled systems. The new approach allows for the identification and correction of intersections approximately ten times faster, while also excluding duplicated intersections and tracking the history of each one. The findings of this section form the foundation for Thesis 2. Chapter 4 presents an analysis of the method associated with the connection between a building management system (BMS) and a building information model (BIM). The accurate monitoring of temperature and relative humidity is vital to ensuring the reliability of data centre equipment. In order to achieve this, the regulation of airflow can be employed as a means of controlling temperature and humidity. As the temperature increases, the equipment draws in a greater volume of cool air. Furthermore, the methodology employed for the collection of data from sensors and its integration into the facility management model is of significant importance. At present, the majority of engineers utilise a BMS that is distinct from the information model. However, in this research section, we propose a direct connection between the building management system (BMS) and the model. This will enhance the management of data centre data. In regard to the cooling of the equipment, there are a number of potential solutions. One of the most effective methods for enhancing the efficiency of a contemporary data centre is through the utilisation of isolation systems. This is due to the fact that the cooling system is the primary consumer of surplus capacity within the data centre. A reduction in load results in an increase in energy efficiency. In this section of the study, the two types of corridor isolation are compared on the basis of a data centre case study using computational fluid dynamics (CFD). The better option is then identified. The results presented in this section serve as the foundation for Thesis 3. Chapter 5 outlines the practical applications of the findings derived from the research. The efficacy of the aforementioned blocks has been evaluated in a multitude of authentic projects at CROC, encompassing a spectrum of sizes, from modest data centres comprising 15 telecom cabinets of 2kW each, to expansive commercial data centres with over 1000 cabinets of 6kW each, which lease their facilities to major organisations. Throughout the testing phase, feedback was obtained and the requisite adjustments were implemented. It can be posited that all proposed methodologies are currently in use.Tétel Szabadon hozzáférhető Biológiai és anyagtudományi kutatások támogatása képfeldolgozási módszerekkelSzeghalmy, Szilvia; Zichar, Marianna; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Komputergrafika és Képfeldolgozás TanszékAz értekezésemben három független kutatási téma képfeldolgozási aspektusait ismertetem. Az első részben egy karcvizsgálat eredményének automatikus kiértékeléséhez fejlesztett eljárást mutatok be. A második részben immunhisztokémiai festéssel kezelt csontvelőbiopsziás minták elemzéséről szól. Az általam fejlesztett eljárás az immunpozitív részek és az értékes terület automatikus meghatározására szolgál. Végül egy a Calopteryx Splendens szárnyak elemzéséhez kialakított programot mutatok be, mely a szárnyak morfometriai elemzésénél használt főbb jellemzők azonosítására képes.Tétel Szabadon hozzáférhető Classification based Symbolic Indoor PositioningKunné Tamás, Judit; Tóth, Zsolt; Tamás, Judit; Informatikai tudományok doktori iskolaIn my research, the following three goals were set. The first goal was to create a data set, which can be used to compare solutions for symbolic indoor positioning purposes. It should contain measurements from multiple sensors. Based on the created data set, various classifiers planned to be tested. To the best of our knowledge, there was no other such data set available. The second goal is to create an application-specific approach for classification error calculation for indoor positioning purposes. It should incorporate the domain knowledge, the topology, to the calculation. The usability of the proposed method needs to be examined, and compared to the traditional, CRISP approach. Application-specific evaluation of classification error is usually used in other fields, but as far as we know, this kind of method was not available for symbolic indoor positioning. The third goal is to develop a novel method to improve the classification accuracy for symbolic indoor positioning purposes using environment topology as domain knowledge. Most of the classification-based solutions do not use domain knowledge. Applying this knowledge, we can provide a more error-tolerant method.Tétel Szabadon hozzáférhető Comparison of the methods and a model for the evaluation of the readiness in implementing business intelligence projects: a hybrid approachFarrokhi, Vahid; Pokorádi, László; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Informatikai Rendszerek és Hálózatok TanszékIn recent years, Business Intelligence (BI) systems have consistently been rated as one of the highest priorities of Information Systems (IS) and of business leaders. BI allows firms to apply information to support their processes and decisions by combining its capabilities in both organizational and technical issues. A significant portion of companies’ IT budgets is being spent on BI and related technologies. In spite of these investments, the risk of failure in implementing is high and only 24% of BI implementations are identified as being very successful. Hence, the evaluation of BI readiness is vital because it serves two important goals. First, it reveals gap areas where a company is not ready to proceed with its BI efforts, so by identifying BI readiness gaps, wasting time and resources can be avoided. Second, the evaluation points out what we need to close the gaps and implement BI with a high possibility of success. This dissertation presents an overview of BI and the necessities for the evaluation of the readiness, and a comparative analysis of the evaluation methods and identifying and ranking the right methods which can be applied in building a model to assess the readiness of organizations. There are many Multiple Criteria Decision Making (MCDM) methods and other further methods which can be applied for building a model of evaluation but each of them has its own advantages and disadvantages. By combining and integrating these methods with each other and also with various other methods, we can avoid the disadvantages and improve the model of evaluation. We also examine the MCDM methods in the other unrelated area to show their applicability in order to confirm the validity of our approach in applying these methods for the comparison of the techniques and methods. In addition, we provide important and critical success factors and classify them into two main categories; organizational and technical. Finally, we show the process of building the hybrid model by using Interpretive Structural Modeling (ISM) and Graph Theory and Matrix Approach (GTMA) and examine it in a real company as a case study.Tétel Szabadon hozzáférhető Computational Methods and Applications for Real-Time Identification of Species and Pathogens from Raw Read Sequencing Data.Karimi, Ramin; Hajdu, András; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Department of Computer Graphics and Image ProcessingA very small proportion (often cited as <1%) of the total microbial diversity in nature can be cultivated in the laboratory. The vast majority of them cannot be isolated or are extremely difficult to grow in the laboratory. In recent years, impressive progress has been made in the field of bioinformatics by technological advances of genome sequencing to perform whole genome sequencing in thousands of individuals. The emerging field of metagenomics provides a series of technical innovations for culture-independent scrutiny of microbial communities in the environment. It is a large-scale sequencing of the entire community, sampled directly from its natural environment. It provides new opportunities for gaining access to previously hidden phylogenetic, functional, metabolic, and ecological diversity of organisms and their community structure. While these technologies are constantly continued to offer increases in throughput, the time and cost of DNA sequencing continue to fall. Therefore, sequencing technologies are becoming applicable as a routine tool for diagnostic and public health microbiology. However, the complexity of the analysis and high-costs of the computational resources has encountered many challenges and obstacles to achieving this goal. One of the major challenges for metagenomics studies is the accurate identification of organisms present in complex environments. Although, a wide variety of assembling and alignment-based algorithms, software and computational analysis workflows have been subsequently developed, computational approaches for alignment-based identification of complex communities, without very extensive sequencing coverage are inadequate for even the most abundant members. In this research, we have proposed an alignment-free method and its appropriate pipelines and software for Real-time identification of species and strains from raw read sequencing data. The method tries to shortcut identification into a quick and accurate process in environmental and clinical sequencing samples, using parallel and distributed computing on commodity hardware for enhancing the applicability of the analysis as a routine process in the entire research community.Tétel Korlátozottan hozzáférhető Computational methods for optimization problemsBekéné Rácz, Anett; Bajalinov, Erik; Rácz, Anett; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar --A mi munkáink azon alapulva születtek, hogy a nagyméretű optimalizációs problémák esetén speciális számítógépes feldolgozásra van szükség, ahhoz hogy hatékony és pontos megoldást kapjunk. Ezek a technikák elengedhetetlenek ahhoz, hogy a szoftverek teljesítménye lépést tartson a modellek növekedésével. A dolgozatomban bemutatom az általam kidolgozott optimalizációs előfeldolgozó eljárásokat (különös tekintettel a hiperbolikus és az egészértékű problémákra), melyek célja, hogy a problémák szoftveres megoldását stabilabbá és gyorsabbá tegyék. We were motivated by the fact that large scale optimization problems to be solved correctly and efficiently usually require such special additional computational techniques as preprocessing and scaling. These techniques very often lead to considerable performance improvement of used solvers. The main goal of my dissertation is to present the methods developed by myself during my PhD studies for preprocessing optimization problems (especially for Linear-Fractional (LFP) and Integer Programming (IP) models) in order to obtain a more stable and faster solution process.Tétel Szabadon hozzáférhető Construction of Pseudorandom Number GeneratorsPadányi, Viktória; Herendi, Tamás; Padányi, Viktória; Informatikai tudományok doktori iskola; Informatikai Kar; Informatikai Kar::Számítógéptudományi TanszékGyakran használnak álvéletlenszám-generátorokat különböző elméleti és gyakorlati problémák megoldására. Ezeket a generátorokat alkalmazzák minden olyan területen, ahol szükség van véletlenszerű tesztadatokra vagy mintákra, például mesterséges intelligencia alkalmazásokban, szimulációkban, véletlenszerű algoritmusokban vagy pedig kriptográfiában. Két módszer létezik véletlenszámok sorozatának generálására: Az előállítás történhet álvéletlenszám-generátorokkal (PRNG) és valódi véletlenszám-generátorokkal (TRNG). Az álvéletlenszám-generátorok esetében általános megközelítés, hogy a sorozat elemeit rekurzív módon számítjuk ki az előző elemekből. A rekurzió a kezdeti mag (seed) felhasználásával indítható, amelyet iteratív módon kiszámítunk, majd a véletlenszerű értékeket ennek alapján származtatjuk. Az álvéletlenszám-generálásra léteznek elméleti és gyakorlati algoritmusok. Az elméleti megközelítés esetében a műveletek tetszőleges pontosságú számokon történnek (vagy végtelen halmazon), míg a gyakorlati módszer esetén fix pontosságú számokat használunk (általában véges halmazon, gyakran algebrai struktúrával). Mindkét esetben azonban elvárás a kapott sorozat egyenletes eloszlása, amit csak véges esetre definiáltunk. Azonban a sorozatok teljesen kiszámíthatóak és rendkívül hatékonyan tömöríthetőek, így nem képesek valódi, információelméletileg bizonyítható véletlen számok előállítására. Használat szempontjából érdekes kérdés az álvéletlenszám-generátorok tulajdonsága. Az eltérő alkalmazások más-más tulajdonságokat várnak el a generátoroktól. A felhasználás során fontos szempont lehet a generátor sebessége, valamint az erőforrásigénye, illetve az adott generátorok minősége, melyek statisztikai tesztekkel mérhetők. A statisztikai tesztek kulcsfontosságúak az álvéletlenszám-generátorok elemzésében. Kutatómunkám első lépéseként összegyűjtöttem néhány használatban lévő, egyenletes eloszlású elméleti és gyakorlati álvéletlenszám-generátort. A generátorokat tulajdonságuk és a használatban lévő próbák és vizsgálatok alapján rendeztem. A NIST teszt csomaggal vizsgáltam mélyebben az felsorolt generátorokat. A kutatásom következő periódusában részletes elemzést végeztem a négyzetközép módszerek csoportjába tartozó generátorokról, tanulmányoztam, hogy milyen fontos tulajdonságokkal rendelkeznek, illetve melyek az előnyös tulajdonságaik. A Neumann-féle négyzetközép módszerre fókuszáltam, amely során a számsorozatokat úgy generáljuk, hogy a kezdeti magértéket négyzetre emeljük, majd a kapott szám középső jegyei alkotják a következő számot. A periódus hossza a kezdeti értéktől függ, és rövid ciklusúnak bizonyult, azaz rövid számsorozat után ismétli önmagát. Ezt követően az általánosított számrendszerekkel folytattam a kutatást, Neumann János négyzetközép módszerét általánosítottam kanonikus számrendszerekre. A rendszerben két számjegy van (0,1) a sorozat pedig hasonló módon van definiálva: egy megfelelően megválasztott m-bites kezdőérték a kiindulás. Négyzetre kell emelni a magot, ki kell vágni a középső m-bitet, és ez a generátor következő magja. Ezekben a számrendszerekben a műveletvégzés hasonló a racionális egészekhez, viszont az átvitel számítsa kicsit komplikáltabb. Tehát, némileg bonyolultabb az átvitel reprezentációja. Dolgozatomban egy példát használok ennek a számításnak a levezetéséhez. A disszertációmban megtalálható a négyzetközép-módszer általánosítása, illetve ezen generátorok elemzése bináris kanonikus számrendszerekben. Kutatásom másik témája az automatákkal kapcsolatos. Definiáltam egy polinom információmennyiségét a CNS polinomhoz viszonyítva, és megmutattam, hogy szoros kapcsolatban áll a számrendszerbeli reprezentáció hosszával. Eredményeim alapján sikerült igazolnom, hogy minden kanonikus számrendszer polinomhoz létezik egy véges automata, amely képes a P alapú kanonikus reprezentációban a polinomok összeadásának végrehajtására. Végül elemeztem ezeknek az automatáknak a méretét, azaz az állapotok számát. Finomítottam B. Kovács - A. Pethő számolását, amivel a számok kanonikus számrendszerekben való felírásának hossza megbecsülhető. Az elért becslések segítségével korlátokat számolhatunk a fix hosszúságú négyzetek hosszára. A továbbiakban, a műveletvégzés volt fontos. Ennek célja elsősorban az volt, hogy megvizsgáljam hogyan alakul a négyzetszámok hossza számított korlátokhoz képest. A vizsgálatok elsődlegesen a négyzetközép-módszer miatt voltak érdekesek, ezért a négyzetre emelés tulajdonságait elemeztem mind gyakorlati mind elméleti szempontból. Többek között bizonyítottam, hogy tetszőleges kanonikus számrendszerhez létezik egy átalakító automata, amely az adott számrendszerben összeadás műveletét hajtja végre. Ehhez készítettem egy algoritmust, ami meghatározza a minimális összeadó automatát, ha a számrendszer egy bináris kanonikus számrendszer. Az összeadás tulajdonságai alapján elkészítettem egy algoritmust a Gray-kód felhasználásával, amely az algebrai egész számok négyzetét. A konstrukció segítségével elemeztem a négyzetre emelés néhány tulajdonságát bináris kanonikus számrendszerekben. Kutatásom ezen részének eredménye, hogy fel tudom sorolni az összes n hosszúságú négyzetszámokat. Az értekezés utolsó fejezetében bemutatom az algoritmust és azok megfigyeléseit.