Informatikai Tudományok Doktori Iskola

Állandó link (URI) ehhez a gyűjteményhez

Informatikai Kar

Informatikai Tudományok Doktori Iskola
(vezető: Dr. Baran Sándor)

Természettudományi és Informatikai Doktori Tanács


tudományterület:
- műszaki tudományok
tudományág:
- informatika tudományok

Doktori programok:

  • Adattudomány és vizualizáció
    Data science and visualization
    (programvezető: Dr. Hajdu András)
  • Alkalmazott információ technológia és elméleti háttere
    Applied Information Technology and its Theoretical Background
    (programvezető: Dr. Terdik György)
  • Elméleti számítástudomány, adatvédelem és kriptográfia
    Theoretical computer science, data security and cryptography
    (programvezető: Dr. Pethő Attila)
  • Az információ technológia és a sztochasztikus rendszerek elméleti alapjai és alkalmazásai
    Theoretical foundation and applications of information technology and stochastic systems
    (programvezető: Dr. Fazekas István)
  • Informatikai rendszerek és hálózatok ipari alkalmazásokkal
    Information Technology Systems and Networks with Industrial applications
    (programvezető: Dr. Sztrik János)

Böngészés

legfrissebb feltöltések

Megjelenítve 1 - 20 (Összesen 107)
  • TételSzabadon hozzáférhető
    BIM-based methods for optimizing the design and maintenance of telecommunications infrastructure in data centres
    Pogorelskiy, Sergey; Kocsis, Imre; Pogorelskiy, Sergey; Informatikai tudományok doktori iskola; Informatikai Kar
    The research entailed the completion of several tasks at different levels of complexity. These included the creation of plug-ins at the code level, the generation of models representing fundamental data centre elements such as telecommunications cabinets, equipment and cable routes, and the integration between the building management system (BMS) and temperature equipment at the algorithmic level. Furthermore, temperature control strategies utilising the corridor isolation method were implemented, and the selected blocks were chosen for their relative rarity within the field of study and their tangible real-world applications in the context of user level. Chapter 1 presents a discussion of the classification and structure of data centres, as well as an overview of the research background. The study was conducted in several phases, beginning with a comprehensive literature review. This was undertaken to identify the areas of engineering systems design and operation using BIM that have been the least researched. - The model was augmented with novel elements at the algorithmic level. An algorithmic approach was employed. Systems design and verification: - Development of a collision-checking plug-in at the code level; - Testing of BIM elements (families) and plug-in at the user level; Chapter 2 presents a methodology that can enhance data centre performance by optimising the configuration of tray and cable placements and the management of associated data. The method automates the formation of façade schemes and guarantees the accuracy of the specifications. The tray design plugin and dynamic cabinet family, as outlined in this section, facilitate the design and specification process, whilst also enhancing the profitability of FM. In conclusion, the aforementioned issues have been addressed and resolved. The newly created cabinet family enables the automated selection of the necessary equipment and its placement within the designated properties. The capacity for each cabinet to be filled in a unique manner eliminates the potential for errors to be introduced during the creation of façade diagrams. Moreover, all equipment is automatically incorporated into the specifications. The findings of this section will form the foundation for the initial thesis. Chapter 3 presents the methodology for collision checking, which is based on several key factors. Such factors include adherence to the prescribed sequence of checking systems, the exclusion of irrelevant collisions, and the establishment of tolerances when integrating system components. A special-purpose plug-in was developed to facilitate the implementation of the methodology. In the context of collision checking, three levels of analysis have been identified. At the code level, forms are created for the purpose of data visualisation, and computer code is developed for the logic that underpins the user interaction with the database. In the context of user-level interaction, users engage directly with the form for the purpose of searching for and visualising collisions, as well as eliminating individual collisions. The objective is to identify and eliminate collisions in accordance with a prescribed sequence of steps. Once a collision has been eliminated, an identifier is incorporated into the form in the form of a checkmark. This serves to indicate the successful elimination of the collision, the date of the elimination, and the name of the user who performed the elimination. The three levels are inextricably linked and collectively constitute the fundamental building blocks of the plugin's functionality. Given the potential for collisions to result in construction errors, it is of paramount importance to ensure the removal of any remaining collisions between the engineering systems once they have been correctly modelled. The novel approach to plugin development affords engineers the opportunity to enhance their design of all modelled systems. The new approach allows for the identification and correction of intersections approximately ten times faster, while also excluding duplicated intersections and tracking the history of each one. The findings of this section form the foundation for Thesis 2. Chapter 4 presents an analysis of the method associated with the connection between a building management system (BMS) and a building information model (BIM). The accurate monitoring of temperature and relative humidity is vital to ensuring the reliability of data centre equipment. In order to achieve this, the regulation of airflow can be employed as a means of controlling temperature and humidity. As the temperature increases, the equipment draws in a greater volume of cool air. Furthermore, the methodology employed for the collection of data from sensors and its integration into the facility management model is of significant importance. At present, the majority of engineers utilise a BMS that is distinct from the information model. However, in this research section, we propose a direct connection between the building management system (BMS) and the model. This will enhance the management of data centre data. In regard to the cooling of the equipment, there are a number of potential solutions. One of the most effective methods for enhancing the efficiency of a contemporary data centre is through the utilisation of isolation systems. This is due to the fact that the cooling system is the primary consumer of surplus capacity within the data centre. A reduction in load results in an increase in energy efficiency. In this section of the study, the two types of corridor isolation are compared on the basis of a data centre case study using computational fluid dynamics (CFD). The better option is then identified. The results presented in this section serve as the foundation for Thesis 3. Chapter 5 outlines the practical applications of the findings derived from the research. The efficacy of the aforementioned blocks has been evaluated in a multitude of authentic projects at CROC, encompassing a spectrum of sizes, from modest data centres comprising 15 telecom cabinets of 2kW each, to expansive commercial data centres with over 1000 cabinets of 6kW each, which lease their facilities to major organisations. Throughout the testing phase, feedback was obtained and the requisite adjustments were implemented. It can be posited that all proposed methodologies are currently in use.
  • TételSzabadon hozzáférhető
    Efficiency Analysis of Some Cryptographic Primitives
    Major, Sándor Roland; Herendi, Tamás; Major, Sándor Roland; Informatikai tudományok doktori iskola; Informatikai Kar::Információ Technológia Tanszék
    A disszertáció két kriptográfiai primitívhez kapcsolódó eredményeket mutat be. Ez a két primitív a véletlenszám generátorok és a lineáris kódok. A disszertáció első része egy algoritmuson alapszik, amely Herendi Tamás eredménye. Az algoritmussal olyan lineárisan rekurzív véletlenszám sorozatok generálhatók, amelyek egyenletes eloszlásúak, modulo 2 egy tetszőleges hatványa. A sorozat periódushossza és a sorozat elemeinek nagysága tetszőleges nagy lehet. A disszertációban bemutatott eredmények elméleti háttere Herendi Tamás és a szerző közös kutatásának eredménye. A gyakorlati alkalmazások fejlesztése, implementációja, valamint a tesztek implementációja és elemzése a szerző eredménye. A disszertáció második része a lineáris kódok keresésének problémájára épül. A cél adott, gyakorlatilag tetszőleges feltételeknek megfelelő linearis kódok generálása. A szerző által fejlesztett, Torch nevű szoftver egy kiterjeszthető, újrakonfigurálható megoldást nyújt a problémára. A Torch csomag több különböző keresési algoritmust, keresési feltételeket és egyéb opciókat támogat. Ezen keretrendszer elősegíti a kísérletezést és az új kutatási eredmények beépítését lineáris kódok keresése során. A szoftver felhasználható klasszifikációs problémákhoz, már ismert lineáris kódok generálásához, vagy jelenleg ismeretlen kódok kereséséhez. A disszertációban bemutatott eredmények elméleti háttere Carolin Hannusch és a szerző közös kutatásának eredménye. A szoftver fejlesztése, implementációja és elemzése a szerző eredménye.
  • TételSzabadon hozzáférhető
    Emberközpontú algoritmusvizualizáció: élmény- és drámapedagógiai elemek hatása a számítógépes gondolkodás fejlesztésére
    Novák, Pálma-Rozália; Csernoch, Mária; Informatikai tudományok doktori iskola; Informatikai Kar
    John Dewey pedagógus és filozófus szerint az igazi oktatás két világ – a valóság és az absztrakt tudás – találkozásáról és összefonódásáról szól, amelyek együttesen formálják a tanulók gondolkodását és szemléletét. Dewey elmélete szerint a valóság világában szerzett tapasztalatok és az absztrakt tudás világa együtt vezet a valódi megértéshez, mely azt a tényt hangsúlyozza ki, hogy az intézményeknek folyamatosan alkalmazkodniuk kell, hogy megfelelő tudást biztosítsanak a jövő generációinak. Sir Ken Robinson híres TED előadásában arra figyelmeztet, hogy a jelenlegi oktatási rendszer gyakran elfojtja a diákok kreativitását. Robinson hangsúlyozza, hogy a kreativitás és a divergens gondolkodás fejlesztése ugyanolyan fontos, mint a tudományos ismeretek átadása. A változatos oktatási módszerek, amelyek egyensúlyban tartják a tudományt és a művészetet növelhetik a diákok motivációját és elkötelezettségét. Jelen disszertáció az informatikaoktatás egy olyan módszerét mutatja be, amely egyedi módon, két látszólag különböző világ ötvözésével segíti a diákok számítógépes gondolkodásának fejlesztését úgy, hogy közben a tanulás és tanítás is egy élmény legyen.
  • TételSzabadon hozzáférhető
    Construction of Pseudorandom Number Generators
    Padányi, Viktória; Herendi, Tamás; Padányi, Viktória; Informatikai tudományok doktori iskola; Informatikai Kar; Informatikai Kar::Számítógéptudományi Tanszék
    Gyakran használnak álvéletlenszám-generátorokat különböző elméleti és gyakorlati problémák megoldására. Ezeket a generátorokat alkalmazzák minden olyan területen, ahol szükség van véletlenszerű tesztadatokra vagy mintákra, például mesterséges intelligencia alkalmazásokban, szimulációkban, véletlenszerű algoritmusokban vagy pedig kriptográfiában. Két módszer létezik véletlenszámok sorozatának generálására: Az előállítás történhet álvéletlenszám-generátorokkal (PRNG) és valódi véletlenszám-generátorokkal (TRNG). Az álvéletlenszám-generátorok esetében általános megközelítés, hogy a sorozat elemeit rekurzív módon számítjuk ki az előző elemekből. A rekurzió a kezdeti mag (seed) felhasználásával indítható, amelyet iteratív módon kiszámítunk, majd a véletlenszerű értékeket ennek alapján származtatjuk. Az álvéletlenszám-generálásra léteznek elméleti és gyakorlati algoritmusok. Az elméleti megközelítés esetében a műveletek tetszőleges pontosságú számokon történnek (vagy végtelen halmazon), míg a gyakorlati módszer esetén fix pontosságú számokat használunk (általában véges halmazon, gyakran algebrai struktúrával). Mindkét esetben azonban elvárás a kapott sorozat egyenletes eloszlása, amit csak véges esetre definiáltunk. Azonban a sorozatok teljesen kiszámíthatóak és rendkívül hatékonyan tömöríthetőek, így nem képesek valódi, információelméletileg bizonyítható véletlen számok előállítására. Használat szempontjából érdekes kérdés az álvéletlenszám-generátorok tulajdonsága. Az eltérő alkalmazások más-más tulajdonságokat várnak el a generátoroktól. A felhasználás során fontos szempont lehet a generátor sebessége, valamint az erőforrásigénye, illetve az adott generátorok minősége, melyek statisztikai tesztekkel mérhetők. A statisztikai tesztek kulcsfontosságúak az álvéletlenszám-generátorok elemzésében. Kutatómunkám első lépéseként összegyűjtöttem néhány használatban lévő, egyenletes eloszlású elméleti és gyakorlati álvéletlenszám-generátort. A generátorokat tulajdonságuk és a használatban lévő próbák és vizsgálatok alapján rendeztem. A NIST teszt csomaggal vizsgáltam mélyebben az felsorolt generátorokat. A kutatásom következő periódusában részletes elemzést végeztem a négyzetközép módszerek csoportjába tartozó generátorokról, tanulmányoztam, hogy milyen fontos tulajdonságokkal rendelkeznek, illetve melyek az előnyös tulajdonságaik. A Neumann-féle négyzetközép módszerre fókuszáltam, amely során a számsorozatokat úgy generáljuk, hogy a kezdeti magértéket négyzetre emeljük, majd a kapott szám középső jegyei alkotják a következő számot. A periódus hossza a kezdeti értéktől függ, és rövid ciklusúnak bizonyult, azaz rövid számsorozat után ismétli önmagát. Ezt követően az általánosított számrendszerekkel folytattam a kutatást, Neumann János négyzetközép módszerét általánosítottam kanonikus számrendszerekre. A rendszerben két számjegy van (0,1) a sorozat pedig hasonló módon van definiálva: egy megfelelően megválasztott m-bites kezdőérték a kiindulás. Négyzetre kell emelni a magot, ki kell vágni a középső m-bitet, és ez a generátor következő magja. Ezekben a számrendszerekben a műveletvégzés hasonló a racionális egészekhez, viszont az átvitel számítsa kicsit komplikáltabb. Tehát, némileg bonyolultabb az átvitel reprezentációja. Dolgozatomban egy példát használok ennek a számításnak a levezetéséhez. A disszertációmban megtalálható a négyzetközép-módszer általánosítása, illetve ezen generátorok elemzése bináris kanonikus számrendszerekben. Kutatásom másik témája az automatákkal kapcsolatos. Definiáltam egy polinom információmennyiségét a CNS polinomhoz viszonyítva, és megmutattam, hogy szoros kapcsolatban áll a számrendszerbeli reprezentáció hosszával. Eredményeim alapján sikerült igazolnom, hogy minden kanonikus számrendszer polinomhoz létezik egy véges automata, amely képes a P alapú kanonikus reprezentációban a polinomok összeadásának végrehajtására. Végül elemeztem ezeknek az automatáknak a méretét, azaz az állapotok számát. Finomítottam B. Kovács - A. Pethő számolását, amivel a számok kanonikus számrendszerekben való felírásának hossza megbecsülhető. Az elért becslések segítségével korlátokat számolhatunk a fix hosszúságú négyzetek hosszára. A továbbiakban, a műveletvégzés volt fontos. Ennek célja elsősorban az volt, hogy megvizsgáljam hogyan alakul a négyzetszámok hossza számított korlátokhoz képest. A vizsgálatok elsődlegesen a négyzetközép-módszer miatt voltak érdekesek, ezért a négyzetre emelés tulajdonságait elemeztem mind gyakorlati mind elméleti szempontból. Többek között bizonyítottam, hogy tetszőleges kanonikus számrendszerhez létezik egy átalakító automata, amely az adott számrendszerben összeadás műveletét hajtja végre. Ehhez készítettem egy algoritmust, ami meghatározza a minimális összeadó automatát, ha a számrendszer egy bináris kanonikus számrendszer. Az összeadás tulajdonságai alapján elkészítettem egy algoritmust a Gray-kód felhasználásával, amely az algebrai egész számok négyzetét. A konstrukció segítségével elemeztem a négyzetre emelés néhány tulajdonságát bináris kanonikus számrendszerekben. Kutatásom ezen részének eredménye, hogy fel tudom sorolni az összes n hosszúságú négyzetszámokat. Az értekezés utolsó fejezetében bemutatom az algoritmust és azok megfigyeléseit.
  • TételSzabadon hozzáférhető
    Többcímkés mélytanuló hálózatok optimalizálása orvosi képfeldolgozási feladatokra
    Katona , Tamás; Harangi, Balázs; Informatikai tudományok doktori iskola; Informatikai Kar::Adattudomány és Vizualizáció Tanszék
    Ebben a disszertációban a többcímkés osztályozás problémakörét vizsgáltuk meg mellkasröntgen felvételeken. A mellkasröntgen felvételek elemzése kritikus jelentőségű a különböző tüdő, szív és sok más betegség diagnosztizálásában. A többcímkés osztályozás lehetővé teszi, hogy egy adott röntgenfelvételen több betegség jelenlétét is detektálja. Ez különösen fontos, mivel egyetlen felvételen egyszerre több betegség is előfordulhat. Az általunk vizsgált megközelítések a mélytanulási modellek hatékonyságára és pontosságára építenek, különös tekintettel a CNN-ek alkalmazásával.
  • TételSzabadon hozzáférhető
    Sustainable Networking: A Study on Power Optimization in DCNs Using Traffic-Aware Methods, Along with SD-DCNs Emulation Strategies
    Al-shamarti, Mohammed; Kovásznai, Gergely; Mohammed; Informatikai tudományok doktori iskola; Informatikai Kar
    Data Center Networks (DCNs) form the backbone of many Internet applications and services that have become essential in daily life. Energy consumption in these networks causes both economic and environmental issues. It is reported that 10% of global energy consumption is due to ICT and network usage. Computer networking equipment is designed to accommodate network traffic; however, the level of use of the equipment is not necessarily proportional to the power consumed by it. For example, DCNs do not always run at full capacity, yet the fact that they are supporting a lighter load is not reflected by a reduction in energy consumption. DCNs have been shown to unnecessarily over-consume energy when they are not fully loaded. In this dissertation, we propose a new framework that reduces power consumption in software-defined DCNs. The proposed approach consists of a new Integer Programming model and a heuristic link utility-based algorithm that strives for a balance between energy consumption and performance. We evaluate the proposed framework using an experimental platform, which consists of a POX controller and the Mininet network emulator. Compared with the state-of-the-art approach, the Equal Cost Multi-Path (ECMP) algorithm, the results show that the proposed method reduces power consumption by up to 10% when the network is experiencing a high traffic load and 63.3% when the traffic load is low. Based on these results, we outline how machine learning approaches could be used to further improve our approach to maintain the Quality of Service (QoS) at an acceptable level, specifically for real-time traffic using a Neural Network algorithm. The findings suggest that the proposed machine learning approach shows promising potential for optimizing power consumption while keeping the quality of the connection within SD-DCNs.
  • TételSzabadon hozzáférhető
    Advanced Motion Control In Robotic Patient Positioning System For Brain Cancer Radiosurgery
    Saadah, Alaa; Husi, Géza; Saadah, Alaa; Informatikai tudományok doktori iskola; Műszaki Kar
    Radiosurgery is essential in treating brain cancer, demanding high precision to target tumors effectively while minimizing damage to surrounding healthy tissues. This research enhances the precision and safety of radiosurgery using an advanced Robotic Patient Positioning System (PPS). The study addresses several key challenges, including precise radiation targeting, patient fixation, and the integration of a patient positioning bed with six degrees of freedom. Our primary research questions focus on achieving 0.1 mm accuracy in patient positioning, developing solutions to overcome mechanical backlash, implementing multi-layered safety protocols in both hardware and software, and reducing radiation exposure to healthy tissues. Through detailed kinematics studies, advanced motion control strategies, and robust safety protocols, our innovative system aims to significantly improve the accuracy and reliability of radiosurgery. The research employs a comprehensive approach, starting with kinematic model development and validation to ensure precise calculations of bed movements. Advanced algorithms address potential mechanical issues such as backlash. The dual-loop control systems enhance motor movement precision, ensuring sub-millimeter accuracy required for effective radiosurgery.\\ Safety is paramount in this research. Multi-layered safety protocols monitor and control the system in real-time, integrating hardware and software safety measures. The system incorporates real-time monitoring using high-resolution tracking to continuously verify patient position and orientation. The findings demonstrate that integrating the patient positioning bed as a subsystem achieves the desired precision and stability for effective treatment. Additionally, multi-layered safety protocols ensure accuracy enhancements do not compromise timing and efficiency. The advanced safety measures significantly reduce the risk of radiation exposure to healthy tissues, minimizing side effects. In conclusion, this state-of-the-art robotic positioning system represents a significant advancement in radiosurgery, offering improved outcomes and reduced side effects for patients undergoing brain cancer treatment. This research provides a novel approach to enhancing the precision and safety of radiosurgery, setting a new standard for future developments in this field.
  • TételSzabadon hozzáférhető
    IoT eszközök és szenzor adatok integrálhatósága kórházinformatikai rendszerekbe
    Péntek, István; Adamkó, Attila; Péntek; Informatikai tudományok doktori iskola; Informatikai Kar
    A mai egészségügyi informatikai rendszerek számára a jelenlegi informatikai trendek nagyon sok fejlődési lehetőséget kínálnak. A hálózatok fejlődésével és a hordozható aktivitásfigyelő eszközök elterjedésével olyan új lehetőségek nyílnak meg a hagyományos egészségügyi informatikai rendszerek előtt, amelyek javíthatják a szolgáltatások minőségét. Számtalan IoT eszköz, hordozható aktivitásfigyelő eszköz vagy okosóra érhető el a piacon, amelyek a legkülönfélébb módon működnek. A bioszenzoros eszközök körében sajnos még nem alakult ki olyan egységes szabvány, amely segítségével szabványos módon lenne lehetőség az eszközökkel való kommunikációra. A mérési adatok formátuma és a mérési adatok kinyerése az egyes eszközökből gyártónkként eltérő, így különféle megközelítést és implementációt igényel. Az egészségügyi rendszerek saját szakterületi szabványok használatával működnek, ezeket nemzetközi szinten is használják. Ezen szabványok felhasználásával kialakítható olyan rendszer, amely az egyének által használt eszközök bioszenzoros adatait befogadva és osztályozva segíti a hagyományos korházinformatikai rendszerek működését anélkül, hogy azoknak az egyes eszközgyártók által specifikált egyedi szabványokról és protokollokról bármit is tudnia kellene. Ilyen módon az egészségügyi rendszerekbe különféle forrásokból érkezhetnek leíró adatsorok, amelyek javíthatják az egészségügyi ellátás minőségét. Az adatok felhasználása során az egészségügyi rendszerek támaszkodhatnak a hub rendszer által történő osztályozásra vagy akár felhasználhatják az IoT eszközökről származó idősorokat saját analitikákhoz.
  • TételSzabadon hozzáférhető
    Advanced Motion Control In Robotic Patient Positioning System For Brain Cancer Radiosurgery
    Saadah, Alaa; Husi, Géza; Alaa, Alaa; Informatikai tudományok doktori iskola; Műszaki Kar::Mechatronikai Tanszék
    Radiosurgery is essential in treating brain cancer, demanding high precision to target tumors effectively while minimizing damage to surrounding healthy tissues. This research enhances the precision and safety of radiosurgery using an advanced Robotic Patient Positioning System (PPS). The study addresses several key challenges, including precise radiation targeting, patient fixation, and the integration of a patient positioning bed with six degrees of freedom. Our primary research questions focus on achieving 0.1 mm accuracy in patient positioning, developing solutions to overcome mechanical backlash, implementing multi-layered safety protocols in both hardware and software, and reducing radiation exposure to healthy tissues. Through detailed kinematics studies, advanced motion control strategies, and robust safety protocols, our innovative system aims to significantly improve the accuracy and reliability of radiosurgery. The research employs a comprehensive approach, starting with kinematic model development and validation to ensure precise calculations of bed movements. Advanced algorithms address potential mechanical issues such as backlash. The dual-loop control systems enhance motor movement precision, ensuring sub-millimeter accuracy required for effective radiosurgery. Safety is paramount in this research. Multi-layered safety protocols monitor and control the system in real-time, integrating hardware and software safety measures. The system incorporates real-time monitoring using high-resolution tracking to continuously verify patient position and orientation. The findings demonstrate that integrating the patient positioning bed as a subsystem achieves the desired precision and stability for effective treatment. Additionally, multi-layered safety protocols ensure accuracy enhancements do not compromise timing and efficiency. The advanced safety measures significantly reduce the risk of radiation exposure to healthy tissues, minimizing side effects. In conclusion, this state-of-the-art robotic positioning system represents a significant advancement in radiosurgery, offering improved outcomes and reduced side effects for patients undergoing brain cancer treatment. This research provides a novel approach to enhancing the precision and safety of radiosurgery, setting a new standard for future developments in this field.
  • TételSzabadon hozzáférhető
    Tudástranszferelemek szerepe a hatékony számítógépes problémamegoldásban
    Horváthné Nagy, Tímea; Csernoch, Mária; Nagy, Tímea; Informatikai tudományok doktori iskola; Informatikai Kar::Számítógéptudományi Tanszék
    Egy hatalmas iparág épül a végfelhasználókra (end-users), de aligha foglalkozik valaki azzal, hogy mennyire alkalmazzák hatékonyan és eredményesen mind a módszertanokat, mind a számukra kifejlesztett eszközöket, és mennyire hatékonyan használják ki az ezekre a tevékenységekre alkalmas erőforrásokat. Elsősorban a vállalatok – mind a hardvergyártók, mind a szoftvergyártók – és még sok más kísérő iparág profitál a végfelhasználókból, a digitális kompetenciák hiányából és az alacsony szintű számítógépes gondolkodási készségekből, képességekből. A kérdés azonban nem az, hogy egyes csoportok mekkora profitot termelnek, hanem az, hogy mennyi veszteség keletkezik, szinte észrevétlenül. Az oktatás a végfelhasználói tevékenységek egyik elsődleges platformja. A cégek ugyan elárasztották a végfelhasználókat eszközeikkel és felhasználóbarát szlogenjeikkel, de képtelenek voltak valódi felhasználóbarát módszereket létrehozni, támogatva ezzel a tanulás-tanítás folyamatát. Általánosságban elmondható, hogy a számítógépes oktatás egy toló (push) termelési rendszer, amely definíció szerint veszteséget termel. Látszatra az oktatás sokat nyer, hiszen a köz-, és a tanfolyami oktatás, valamint az oktatási segédanyagok biztosítása egy hatalmas iparágat működtet. Másrészt az oktatás a legnagyobb vesztese ennek a helyzetnek, mivel a végfelhasználói tevékenységben és a termelésben nem mutatható ki jelentős előrehaladás. A magyarországi informatikaoktatás problémáinak és az elsőéves informatikus hallgatók teszteredményeinek ismeretében mini-kompetenciatesztet terveztünk az általános és középiskolások (7–10. évfolyam) informatikai képességeinek mérésére. A teszt célja az informatikaoktatás hatékonyságának vizsgálata, a konkrét tudáselemek azonosítása, valamint a tudástranszferelemek aktiválásának mérése. Az eredményekkel rávilágíthatunk arra, hogy a számítógépes és számítógéppel támogatott oktatásban alkalmazott és széles körben elfogadott, eszközorientált, tudástranszferelemeket nélkülöző megközelítések alacsony hatékonyságú számítógépes problémamegoldáshoz vezetnek, melynek további következménye az informatikai felsőoktatásban az óriási hallgatói lemorzsolódás, az iparban az informatikus hiány, valamint a nem-professzionális informatikában keletkező óriási anyagi veszteségek, amelyek a hanyag adatkezelés következményei.
  • TételSzabadon hozzáférhető
    Képalkotó rendszerek aberrációinak hatékony szimulációját támogató algoritmusok és szoftverek fejlesztése
    Csoba, István; Kunkli, Roland Imre; Csoba, István; Informatikai tudományok doktori iskola; Informatikai Kar::Adattudomány és Vizualizáció Tanszék
    A képalkotó rendszereket szimuláló képszintézis a komputergrafika területének meghatározó problémája. Kiemelten fontos szerepe van az emberi látás szimulációjának, amely kulcsfontosságú számtalan magas relevanciájú feladat (mint például a személyre szabott látásjavító elemek tervezése, a látásjavító kijelzők megalkotása vagy a fejre szerelt kijelzők által okozott diszkomfort csökkentése) végrehajtásához. A szakirodalomban elérhető látásszimulációs módszerek széles palettája ellenére azonban a korábbi módszerek számos olyan, nagymértékben korlátozó tényezővel rendelkeznek, mint a személyreszabhatóság mellőzése, a szimulálható aberrációk típusainak korlátoltsága, illetve az előfeldolgozási és a szimulációs idők jelentős hossza. Mindezen problémák megoldására létrehoztunk több, önállóan is alkalmazható eljárást, amelyek együttesen egy, az imént említett hiányosságok mindegyikét orvosolni képes rendszert alkotnak. Az értekezés első részében ezen új módszereink részleteit és az így elért főbb eredményeinket ismertetem. A látáshű képszintézisen kívül a képalkotó rendszerek területének hangsúlyos problémája a kamerarendszerek sajátosságainak szimulációja is. A kamerákkal kapcsolatos jelenségek között meghatározó szerepe van a magas intenzitású fényforrások által generált lencsefényfoltoknak, ugyanis azok kulcsfontosságú elemei a fotográfia és a cinematográfia eszköztárának és nagymértékben hozzájárulnak a szintetikus képek valószerűségéhez. Ezen problémákból kifolyólag kutatómunkánkkal olyan eszközöket és eljárásokat is megalkottunk, amelyekkel a fizikai alapú lencsefényfolt-szimulációk tervezése és valósidejű rendszerekbe történő integrációja megkönnyíthető. Az értekezés második részében az erre a célra létrehozott, nyílt forrású keretrendszerem jellemzőit, valamint a gyakorlatban rendszeresen alkalmazott lencsefényfolt-renderelő algoritmus interaktív paraméterezése megalkotott módszerünk részleteit és főbb eredményeit ismertetem. Digital image synthesis for the computational simulation of imaging systems is a highly relevant problem in computer graphics. Vision simulation is critical in this area because it is key to performing numerous highly relevant tasks (such as properly planning personalized corrective elements, developing vision-correcting displays, and reducing discomfort when using head-mounted displays). Despite the wide range of vision simulation algorithms available in the literature, previous approaches are generally hindered by problems like the lack of personalization, limited types of aberrations that can be simulated, and long precomputation and rendering times. We developed a set of independently usable algorithms, which together form a system that can solve all the abovementioned problems. The first part of this dissertation presents the details of our new algorithms and our key results. Besides human vision simulation, the computational reproduction of the characteristics of cameras is another important problem related to imaging systems. Among the various camera-generated phenomena, lens flares (colorful patches generated by high-intensity light sources) represent an essential artistic tool in photography and cinematography and play a critical role in the plausibility of synthetic images. Because of these reasons, our research also aimed to develop tools and techniques for the proper planning and easy integration of physically based lens flare rendering in real-time environments. The second part of this dissertation describes my open-source framework for the planning and rendering of lens flares and outlines the details and key results of our proposed method for the interactive parametrization of a previously existing, widely used lens flare simulation algorithm.
  • TételSzabadon hozzáférhető
    Developing Performant Neural Network Architectures for Processing Medical Data
    Bogacsovics, Gergő; Hajdu, András; Bogacsovics, Gergő; Informatikai tudományok doktori iskola; Informatikai Kar::Adattudomány és Vizualizáció Tanszék
    A disszertációban számos újszerű módszer kerül bemutatásra a különféle mélytanuló modellek pontosságának és megbízhatóságának növelésére. A bemutatott módszereket különböző problémák megoldására alkalmazzuk a klinikai területen és ismertetjük azok előnyeit a hagyományos mélytanulás alapú megoldásokkal szemben. A disszertációban szereplő megoldások két csoportra oszthatók. Az első csoportba tartozó eljárások a különböző hagyományos módszereket kombinálják a mélytanuló technikákkal annak érdekében, hogy javítsák a neurális hálók pontosságát. Ennek kapcsán megmutatjuk, hogy elő tudunk állítani olyan modelleket, amelyek mindkét megközelítés előnyeit magukban hordozzák. Az ilyen módon létrehozott modellek ugyanis nem csak kisebb adathalmazokon képesek működni, de robusztusabbak és rugalmasabbak is, mint a hagyományos módszerek. A disszertációban két probléma esetében vizsgáljuk a hagyományos és mélytanulás alapú módszerek ötvözésének lehetőségét. Először egy kétlépcsős architektúrát mutatunk be, melynek célja az elméleti modellek és a neurális hálók hatékony fúziója és alkalmazzuk azt az influenza, valamint COVID-19 terjedésének előrejelzésére. Ezt követően ismertetünk egy módszert, amely képes ötvözni a hagyományos képfeldolgozással és a konvolúciós neurális hálók által kinyert jellemzőket. A módszer több változatát is ismertetjük ezen jellemzők hatékony kombinálásának érdekében, majd pedig használjuk azokat a diabéteszes retinopátia és a diabéteszes makulaödéma felismerésére. A disszertációban ismertetett módszerek második csoportjának célja olyan hatékony ensemble modellek kifejlesztése, amelyek pontosabbak és hatékonyabbak a hagyományos megközelítéseknél. Ennek kapcsán először egy egyedi megközelítést mutatunk be a sejtek digitalizált Pap keneteken történő hatékony szegmentálására. A módszer egy teljesen konvolúciós neurális hálót (FCN) alkalmaz és egyszerre dolgozza fel mind további betanított FCN modellek bemeneteit, mind pedig az eredeti bemeneti képet. Ezt követően a diverz ensemble modellek építésének problémáját mutatjuk be. Kitérünk arra, hogy a hagyományos módszerek nem veszik figyelembe az együttes diverzitását, azaz, hogy a tagmodellek mennyire különbözőek. Ezután több újszerű, ensemble alapú megközelítést mutatunk be, melyek a tanítás során a tagmodellek utolsó konvolúciós rétegei által kinyert jellemzők közötti hasonlóságot egyfajta regularizációként használják. A módszer több változatát is ismertetjük és alkalmazzuk azokat az agydaganatok MRI felvételeken történő pontos osztályozására. In this dissertation, several novel methods are presented for improving the accuracy and reliability of various deep learning models. We apply these methods to solve various problems in the clinical domain and describe their advantages over traditional deep learning-based solutions. The solutions presented in this dissertation can be divided into two groups. The first group of methods combines various traditional methods with deep learning techniques in order to improve the accuracy of neural networks. In this context, we show that we can devise models that combine the advantages of both approaches. Models created in this way are not only able to operate on smaller datasets, but are also more robust and flexible than traditional methods. In this thesis, we explore the possibility of combining traditional and deep learning-based methods for two problems. First, we present a two-stage architecture for the efficient fusion of theoretical models and neural networks, and apply it to predict the spread of influenza and COVID-19. We then describe a method that is able to combine hand-crafted features with those extracted by convolutional neural networks. We describe several variants of the method to combine these features efficiently, and then use them to detect diabetic retinopathy and diabetic macular edema. The second set of methods described in this thesis aims to develop efficient ensemble models that are more accurate and efficient than traditional approaches. In this context, we first present a unique approach for the efficient segmentation of cells on digitized Pap smear images. The method employs a fully convolutional neural network (FCN) and simultaneously processes both the inputs from additional pre-trained FCN models and the original input image. Then, we present the problem of building diverse ensemble models. We point out that traditional methods do not take into account the diversity of the ensemble, i.e., how diverse the member models are. Then, we present several novel ensemble-based approaches that use the similarity between the features extracted by the last convolutional layers of the member models as a form of regularization during training. Several variants of the method are described and applied to accurately classify brain tumors in MRI images.
  • TételSzabadon hozzáférhető
    Elektromos hajtású prototípus versenyautók és hajtásláncok dinamikai modellezése, szimulációja, optimalizálása és kísérleti vizsgálata
    Szántó, Attila; Sziki, Gusztáv Áron; Szántó, Attila; Informatikai tudományok doktori iskola; Műszaki Kar
    A doktori dolgozatomban ismertetett kutatómunka elsődlegesen a DE Műszaki Karának hallgatói csapatait, és az őket irányító oktatókat segítik a tudatosabb tervezői és fejlesztői munkában, növelve ezáltal a különböző hallgatói versenyeken (MVM Energia Futam, Shell ECO-Marathon, Formula Student) való eredményes versenyzés esélyét. A kidolgozott műszaki adat optimalizáló szoftver a megvalósított eljárásokkal a jövőben alkalmas lehet az egyetemen kifejlesztett elektromos járművek, hajtásláncok műszaki adatainak optimalizálására, javítva ezáltal számos jellemzőjüket, csökkentve például az energiafogyasztást. Az elvégzett kutatómunka eredménye az alábbi három tézispontban foglalható össze: Az első tézispont egy prototípus versenyautókhoz kidolgozott újszerű, moduláris felépítésű műszaki adat optimalizáló szoftvert ismertet. A szoftverrel meghatározhatók a járművek műszaki adatainak optimális értékei egy adott versenyfeladathoz. A szoftver két fő modulból épül fel. Az egyik egy egyenes pályán történő mozgásra kidolgozott járműdinamikai szimulációs modul, amely a jármű műszaki adataiból kiszámítja annak menetdinamikai függvényeit (gyorsulás-, sebesség- és út-idő függvények). A másik egy optimalizáló modul, amely a szimulációs modul által generált függvényértékeket felhasználva, kiszámítja a kiválasztott műszaki adatok optimális értékeit. Az optimalizáló modul két független eljárást alkalmaz: az első egy grafikus eljárás, a második az „adaptív szimulált hűtés” módszerének alkalmazása az optimális műszaki adatok meghatározására, amely a módszer egy teljesen új alkalmazási területe. Emellett az eljárás része egy olyan újszerű szűrési eljárás, amellyel a vizsgálatból előre kizárhatók azok a műszaki adatok, amelyekre nem érdemes optimalizálni, hiszen számottevő változtatásuk csak elhanyagolható változást okoz az érintett célfüggvényben. Az elvégzett részletes hibaszámítás igazolta, hogy a járműdinamikai szimulációs modul képes a jármű sebességét 5-9% relatív bizonytalansággal kiszámítani az 1-40 km/h sebességtartományon, ami megerősíti a vizsgálataink, és eredményeink hitelességét. A második tézispont módszertani fejlesztéseket ismertet egy olyan kísérleti eljáráshoz, amellyel csapágyazott forgó tömegeket (alkatrészeket) tartalmazó gépek, berendezések, azon belül elektromos motorok dinamikai jellemzői – a forgó tömeg kiszerelése nélkül – szimultán meghatározhatók. Az említett dinamikai jellemzők a forgó rendszer (motor esetén forgórész) tehetetlenségi és ellenállási (súrlódási) nyomatéka. A prototípus versenyautókban alkalmazott elektromos motorok esetén az említett jellemzők bemenő adatként szolgálnak a korábban ismertetett járműdinamikai szimulációs program motorszimulációs moduljához. Az elvégzett fejlesztések eredményeképpen az eljárás lényegesen megbízhatóbb, pontosabb és rutinszerűen alkalmazható lett. Az eljárás kísérleti úton, és hitelesítő mérésekkel igazolt relatív hibája, a tehetetlenségi nyomaték meghatározása esetén 5,3%, míg az ellenállási (súrlódási) nyomaték meghatározása esetén 5-6% között változik a [20;120] [rad/s] szögsebesség tartományon. Meg kell jegyezni, hogy a kísérleti körülmények további optimalizálásával a fenti hiba – mindkét vizsgált dinamikai jellemző esetén – 3% körüli értékre csökkenthető. A szerzők tudomása szerint az így kidolgozott és optimalizált eljárás az ismert, rutinszerűen alkalmazható eljárások közül a legegyszerűbben alkalmazható, és az egyik legpontosabb. A harmadik tézispont egy újszerű kísérleti eljárást ismertet elektromos motorok dinamikai jellemzőinek meghatározására, valamint a motorszimulációs modulok által generált függvények hitelesítésére. Az eljárás két független kísérletből áll: az elsőben egy gördítési kísérletből meghatározzuk a forgórész tehetetlenségi nyomatékát, míg a másodikban egy kombinált gyorsítási és kifutási tesztből az ellenállási (súrlódási) nyomaték-szögsebesség karakterisztikát, valamint elvégezzük a hitelesítést. A gördítési kísérlet előnye, hogy azokban az esetekben is alacsony hibával alkalmazható, amikor a hagyományos, lengetésén alapuló módszerek (pl. a gyorsan csillapodó amplitúdó miatt) pontatlanok. Az eljárás kísérleti úton, és hitelesítő mérésekkel igazolt relatív hibája, a tehetetlenségi nyomaték meghatározása esetén 3,3%, míg az ellenállási (súrlódási) nyomaték meghatározása esetén 4-5% között változik a [20;120] [rad/s] szögsebesség tartományon. A módszer hátránya, hogy a tehetetlenségi nyomaték meghatározásához a forgórészt ki kell szerelni a motorból. A fentieken túl igazoltam, hogy a hitelesítő mérések során nyert, és a motorszimulációs modulok által generált értékek egymáshoz viszonyított százalékos pontossága a fordulatszám és áramerősség esetén 96-99% és 93-99% között változik, a 0,0001576 – 0,06785 [kg·m2] tartományba eső terhelő tehetetlenségi nyomatékok alkalmazása esetén. Összefoglalva elmondható, hogy a kifejlesztett motorszimulációs programmodul pontossága – a kísérletileg meghatározott bemenő adatok alkalmazása esetén – megfelelő, így beépíthető a járműdinamikai szimulációs programunkba.
  • TételSzabadon hozzáférhető
    Reversible Reaction Systems
    Bagossy, Attila; Vaszil, György; Bagossy, Attila; Informatikai tudományok doktori iskola; Informatikai Kar::Számítógéptudományi Tanszék
    E disszertációban a reakciórendszerek (Reaction Systems) nevű számítási modell reverzibilitását vizsgáló kutatásunkat mutatjuk be. Motivációnkat az jelentette, hogy különböző reverzibilitási paradigmákat próbálhassunk ki egyazon számítási modellen belül. Ennek megfelelően, munkánk a visszalépéses (backtracking) reverzibilitás megvalósításától egy olyan variánsig terjed, mely az okozati konzisztens (causal consistent) reverzibilitás implementálására is alkalmas. A visszalépéses reverzibilitási paradigma olyan számítási módszerek esetén ideális, melyek a számításokat lépésről lépésre, azaz szekvenciálisan végzik. Mivel a reakciórendszerek is szekvenciális végrehajtással rendelkeznek, ezért természetesen adódott, hogy elsőként a kontrollálatlan visszalépéses paradigmát valósítjuk meg benne. Definíciónk szerint egy reakciórendszer reverzibilis, amennyiben annak minden interaktív folyamata reverzibilis. E definícióra építve meghatároztuk a reverzibilitás szükséges és elégséges feltételeit, megfelelő követelményeket támasztva a reakciókkal és a háttérhalmazzal szemben. Később a reverzibilis reakciórendszer definíciónkat kiegészítjük egy külső kontroll mechanizmussal is (external control). Azaz, egy olyan modellt készítettünk, melyben a számítás iránya a környezettől kapott bemenettől függ A reverzibilis modell definiálása után, annak intuitív számítási erejét tekintettük, segítségül hívva az átmeneti gráfokat (transition graph). Elsőként az eredeti definíció szerint reverzibilis reakciórendszereket tekintettük, melyek igen korlátozottak: egy ilyen rendszer átmeneti gráfja vagy egyetlen csúcs, vagy pedig egy olyan irányított fa, melyben minden él a gyökérrel ellentétes irányba mutat. Ezt követően az úgynevezett visszatekintő reverzibilis rendszerekkel dolgoztunk (reversible with lookbehind). E változtatás eredményeként egy olyan modell állt elő, melynek viselkedése lényegében megegyezik a véges állapotátmeneti rendszerekével. Azaz, a reverzibilis véges állapotátmeneti rendszerek állapotátmeneti gráfjai megfelelnek a visszatekintő reverzibilis reakciórendszerek átmeneti gráfjainak. És fordítva, bármely visszatekintő reverzibilis reakciórendszer gráfjából felírható egy reverzibilis véges állapot-átmeneti rendszer állapot-átmeneti gráfja. A kutatómunkánk elsődleges célja és motivációja a reverzibilitás különböző paradigmáinak vizsgálata volt. E motiváció mentén, a visszalépéses reverzibilitás után a figyelmünket egy másik paradigmára, az okozati konzisztenciára (causal consistency) fordítottuk. Visszatekintve azonban a reakciórendszer eredeti definíciójára, az egy szekvenciális modellt ír le, mely nem tartalmaz konkurens viselkedést, értelmetlenné téve ezzel az okozati konzisztencia alkalmazását. Ahhoz, hogy a szekvenciális végrehajtáson továbbléphessünk, egy megfelelő variánsra van szükségünk. Egy ilyen variáns a közvetlenül kommunikáló reakciórendszerek (Communicating Reaction Systems with Direct Communication, cdcR systems). Ezen megfelelő módosításokat végrehajtva, bemutattunk egy általunk felírt közvetlenül kommunikáló reakciórendszer-variánst, melyet közvetlenül kommunikáló elosztott reakciórendszernek (Distributed Communicating Reaction Systems, d-cdcR systems) neveztünk el. E változat bevezeti a blokkolt (blocking) számításokat és az aktív komponenseket, megszüntetve ezzel a globális szinkronizációt. Mivel e módon lehetségessé váltak a konkurens számítások, így erre a modellre már felírhattuk az okozati konzisztens reverzibilitást, felhasználva Lanese, Phillips és Ulidowski kapcsolódó keretrendszerét. Implementációnk két rétegből áll. Egyfelől, megköveteltük, hogy minden egyes komponens lokálisan reverzibilis legyen, megfelelve a korábban támasztott követelményeknek. Másfelől, a teljes d-cdcR rendszert tekintve, az egyes komponensek között zajló kommunikációt a komponensekhez csatolt vermekben tároltuk.
  • TételSzabadon hozzáférhető
    Advanced Metaheuristics for Optimization
    Sabagh Nejad, Anahita; Fazekas, Gabor; Informatikai tudományok doktori iskola; Informatikai Kar
    The main purpose of this dissertation is to introduce two new advanced methods of solving a Traveling salesman problem (TSP) using metaheuristics. Solving TSP is important as it is an NP-hard and can’t be solved in a polynomial time. In my new methods, I applied k-means to cluster the data into smaller parts and I used the Whale Optimization algorithm (WOA) as a bio-inspired algorithm. I merged TSP with K-means and WOA, and I assigned a number for thresholding (T- value) to decide the maximum number of cities that can be placed in each cluster. This way the fitness function and timing of solving TSP improved. The two methods have close pseudocodes. There is a third model as well that is proposed for future works.
  • TételSzabadon hozzáférhető
    Parametric post-processing of ensemble forecasts across multiple weather variables and resolutions
    Lakatos-Szabó, Marianna; Baran, Sándor; Szabó, Marianna; Informatikai tudományok doktori iskola; Informatikai Kar::Alkalmazott Matematikai és Valószínűségszámítási Tanszék
    A meteorológia területén hatalmas előrelépést jelentett az ensemble időjárás-előrejelzési technika operatív alkalmazása. A módszer lényege, hogy több numerikus időjárás-előrejelző modell futtatását vagy egy perturbált paraméterezésű, esetlegesen perturbált kezdő értékkel megadott modell különböző futtatását kombinálja, így olyan valószínűségi előrejelzéseket képes adni, amelyek segítségével megbecsülhető az időjárás-előrejelzés bizonytalansága. Ezek a valószínűségi előrejelzések növelik a predikciók pontosságát, azonban az ensemble előrejelzések nyers kimenete gyakran alacsony szórással rendelkezik és esetenként torzítással terhelt lehet, ami hátrányosan befolyásolhatja megbízhatóságukat és használhatóságukat. A statisztikai utófeldolgozás az egyik legelterjedtebb módszer az előrejelzések kalibrálására, ezáltal javítva az ensemble predikciók megbízhatóságát. Az ensemble időjárás-előrejelzésben megjelentek a duális felbontású előrejelző rendszerek is, amelyek a magasabb felbontással járó költségnövekedés minimalizálása és a jobb prediktív teljesítmény közötti kompromisszum megteremtése érdekében különböző térbeli felbontású tagokat fognak össze egy-egy ensemble rendszerbe. A disszertáció átfogóan vizsgálja az egyféle és duális felbontású előrejelzések statisztikai utófeldolgozásának témáját, elemezve a különböző eloszlásokon alapuló, parametrizált EMOS modellek hatékonyságát, és tesztelve azokat több időjárási változóra vonatkozóan.
  • TételSzabadon hozzáférhető
    Benchmarking and Utilization of NoSQL Databases - A New Vision
    Alzaidi, Mustafa; Vágner, Anikó Szilvia; Informatikai tudományok doktori iskola; Informatikai Kar
    This dissertation explores the many aspects of NoSQL databases, with an emphasis on two key principles. First, we'll discuss NoSQL database benchmarking, an essential step toward selecting the right system for particular requirements. And then focused on leveraging NoSQL database capabilities to enhance performance in practical applications. In this dissertation, we will discuss the importance of benchmarking, the methods used to conduct benchmarks, and the most used benchmarking software. Then, compare Redis and HBase, two popular key-value NoSQL databases, using the Yahoo Cloud Service Benchmarking Tool (YCSB). And take a look at how they were rated on the job. In addition, the dissertation will provide a trip planning algorithm (one that can determine the best routes between two specified points) and provide an overview of GTFS data. Then, present the strategy of employing the Redis NoSQL database to accelerate the process of discovering a trip plan utilising GTFS data. Discovering potential routes and verifying them in light of the trip's schedule are the two main components of the trip planning process. An algorithm for validating trips in accordance with the trip schedule will be presented in the dissertation. The Range Mapping Hash is a Redis structure that was designed to speed up the trip time verifying process; it is another example of the use of a NoSQL database. In the dissertation, the performance of both trip planning and trip time validation are measured and compared with and without the proposed method of utilizing NoSQL database. One of the problems with the most widely used benchmarking tools and methods today is that they do not account for the specifics of the benchmarking application. Using the GTFS trip planner application as an example, this paper will introduce the method of benchmarking the database based on application interaction. In this section, we will compare Redis and MongoDB as storage for GTFS databases.
  • TételSzabadon hozzáférhető
    Performance Investigation of a Modelled Finite-source Cognitive Radio Network
    Zaghouani, Mohamed Hedi; Sztrik, János; Informatikai tudományok doktori iskola; Debreceni Egyetem::Informatikai Kar
    This dissertation presents a retrial queueing system with finite sources designed to simulate cognitive radio networks. The model incorporates two non-independent frequency bands dedicated to serving two user classes: Primary Users (PUs) and Secondary Users (SUs). Specifically, priority queueing is applied to the PUs, while SUs are assigned an orbit-based service unit. The study employs simulation techniques to showcase the impact of inter-event time distribution on the first and second moments of response times, offering several sample examples. Additionally, various case study scenarios are explored, incorporating real-life challenges such as server non-reliability, customer abandonment, and reneging.
  • TételSzabadon hozzáférhető
    Aszimptotikus eredmények a valószínűségszámítás területén
    Pecsora, Sándor; Fazekas, István; Informatikai TudományokDoktori Iskola; Debreceni Egyetem::Informatikai Kar::Alkalmazott Matematikai és Valószínűségszámítási Tanszék
    A disszertáció a valószínuségelmélet határérték tételei témakörébe tartozó néhány eredményt tartalmaz. A 2. és a 3. fejezet a nagy számok törvényeihez tartozó aszimptotikus tételeket és a velük kapcsolatos egyenlotlenségeket tárgyalja, a 4. fejezet pedig véletlen zajjal terhelt mátrixok sajátértékeinek aszimptotikus viselkedését elemzi. A 2. és 3. fejezet egymással szoros összefüggésben van, míg a 4. fejezet a korábbi kettohöz egy tételen keresztül kapcsolódik. A disszertációban megtartottuk a megjelent cikkek szerkezetét, de a cikkeket kiegészítettük néhány magyarázattal és részletesebb bizonyításokkal.
  • TételSzabadon hozzáférhető
    Methods, packages, and applications for the development and use of Mental Cutting Test exercises
    Tóth, Róbert; Zichar, Marianna; Informatikai tudományok doktori iskola; Debreceni Egyetem::Informatikai Kar::Adattudomány és Vizualizáció Tanszék
    Ebben a disszertációban átfogó képet adunk arról a kutatásunkról, mely elsősorban a Mental Cutting Test feladatok előállítását szeretné hatékonyabbá tenni különféle eljárások és alkalmazások tervezésével és fejlesztésével. A főbb eredményeinket öt tézisben ismertetjük. In this dissertation, we give an overview of our research about the design and development of procedures and applications, which aim is to enhance the development and use of Mental Cutting Test exercises. We highlight the main contributions of this dissertation using five theses.