Informatikai Tudományok Doktori Iskola
Állandó link (URI) ehhez a gyűjteményhez
Informatikai Kar
Informatikai Tudományok Doktori Iskola
(vezető: Dr. Baran Sándor)
Természettudományi és Informatikai Doktori Tanács
tudományterület:
- műszaki tudományok
tudományág:
- informatika tudományok
Doktori programok:
- Adattudomány és vizualizáció
Data science and visualization
(programvezető: Dr. Hajdu András) - Alkalmazott információ technológia és elméleti háttere
Applied Information Technology and its Theoretical Background
(programvezető: Dr. Terdik György) - Elméleti számítástudomány, adatvédelem és kriptográfia
Theoretical computer science, data security and cryptography
(programvezető: Dr. Pethő Attila) - Az információ technológia és a sztochasztikus rendszerek elméleti alapjai és
alkalmazásai
Theoretical foundation and applications of information technology and stochastic systems
(programvezető: Dr. Fazekas István) - Informatikai rendszerek és hálózatok ipari alkalmazásokkal
Information Technology Systems and Networks with Industrial applications
(programvezető: Dr. Sztrik János)
Böngészés
Informatikai Tudományok Doktori Iskola Megjelenés dátuma szerinti böngészés
Megjelenítve 1 - 20 (Összesen 112)
Találat egy oldalon
Rendezési lehetőségek
Tétel Korlátozottan hozzáférhető Az internetes keresők lekérdezési hatékonyságának vizsgálata(2007) Tóth, Erzsébet; Fazekas, Gábor; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar--Információ Technológia TanszékA vizsgálat eredményei arra engednek következtetni, hogy az angol nyelv keres k rosszabbul kezelik és értelmezik a magyar nyelv kereséseket, mint az angol nyelv eket. Ezekben a keres eszközökben a csonkolás és a szinonimákra történ keresés eredményesen m ködik az angolban, de meglehet sen problémás a magyar nyelvben. A Google keres nem veszi figyelembe a határozott és a határozatlan nével ket az angol nyelv kereséseknél, azonban még nem oldotta meg ezt a kérdést a magyar nyelvben. Az Altavista keres megtalálja az angol nyelv keres kérdések többes számú alakját, ezért ez az egyedüli olyan szolgáltatás, ahol a morfológiai elemzés hatékonyan m ködik az angolban. Az angol nyelv keres k közül egyik sem küzdött meg ezzel a problémával a magyar nyelvben. Elmondható a Google és az Altavista szolgáltatásokról, hogy azok azonos teljesítményt nyújtottak a keres kérdések értelmezésében, utánuk pedig az AlltheWeb keres következik a rangsorban. A kapott eredmények alapján levonható az a következtetés, hogy ezeknek a keres knek még nagyobb hangsúlyt kellene fektetniük a morfológiai elemzésre, a stopszavak és az ékezetek kezelésére a jöv beli fejlesztésükben... ----- The results of this study let me conclude that English search engines handle queries for Hungarian terms worse than they handle English terms. In these search tools truncation and searching for synonyms work properly in English but it is problematic in Hungarian. Google omits definite and indefinite articles in the English queries, but it has not solved this issue yet for Hungarian queries. AltaVista is good at finding the plural form of the English queries, so this is the only service where stemming works properly in English. However, none of the English services coped with this problem in the Hungarian language. It can be said that Google and AltaVista are equal in their performance of interpreting queries, followed by AlltheWeb. On the basis of these findings, I can draw the conclusion that more emphasis should be placed on stemming, handling of stopwords and diacritics in the future development of these search engines....Tétel Korlátozottan hozzáférhető Investigations into Non-classical Logic(2008) Vályi, Sándor; Mihálydeák, Tamás; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar--Számítógéptudományi Tanszék-Tétel Korlátozottan hozzáférhető Könyvtári vállalkozói információs rendszer megvalósításának elvei(2008) Tanyiné Kocsis, Anikó; Arató, Mátyás; Kocsis, Anikó; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar--Információ Technológia Tanszék-Tétel Korlátozottan hozzáférhető Generalized Number Systems and Secure Electronic Elections(2008) Huszti, Andrea; Pethő, Attila; Informatikai tudományok doktori iskola-Tétel Korlátozottan hozzáférhető Cross-layer forgalom- és protokoll elemzés(2009) Orosz, Péter; Sztrik, János; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar --A disszertáció első részében aszimmetrikus és nagysebességű kapcsolatokon vizsgáltam a TCP protokoll működését befolyásoló kernel-változókat (pl. puffer- és ablakméretek, torlódásvezerlés) először alapértelmezett értékekkel, majd a tapasztalatok alapján módosított paraméter-beállításokkal és módosított algoritmusokkal dolgoztam. A második részben mobil vezeték nélküli környezetben folytattam a kereszt-réteges vizsgálatokat, IPv4 és IPv6 infrastruktúrán, valamint továbblépve megnéztem a TCP viselkedését védett WiFi hálózatban bekövetkezett roaming események kapcsán.Tétel Korlátozottan hozzáférhető Algebraic Properties of Petri Net Languages and Codes(2009) Yoshiyuki, Kunimochi; Dömösi, Pál; Informatikai tudományok doktori iskolaPetri nets are graphical and mathematical modeling tools applicable to many systems. They are promising tools for describing and studying information processing systems that are characterized as being concurrent, asynchronous, distributed, parallel, nondeterministic, and/or stochastic. However, in many applications modeling by itself is of limited practical use if one cannot analyze the modeled system. As means of gaining a better understanding of the Petri net model, the decidability and computational complexity of typical automata theoretic problems concerning Petri nets have been extensively investigated in the past four decades.Tétel Korlátozottan hozzáférhető Kriptográfiai protokollok a formális vizsgálata a CSN logikai rendszer bővítésével(2009) Takács, Péter; Pethő, Attila; Informatikai tudományok doktori iskola-Tétel Korlátozottan hozzáférhető Infokommunikációs hálózatok QoS analízise(2010) Gál, Zoltán; Terdik, György; Informatikai tudományok doktori iskolaEz a disszertáció a csomagkapcsolt infokommunikációs hálózatok szolgálat minőségének analízise útján elemzi az erőforrások foglalásának valós idejű alkalmazásokra kifejtett hatását. Öt tézisben foglalja össze a "Best Effort" hálózati környezetben, valamint QoS mechanizmussal vezérelt forgalmak torlódásmentes és torlódásos esetben bekövetkező minőség változási hatásait. Az Internet óriási, és egyre nagyobb népszerűsége ellenére még a mai napig nem képes garantálni minőségi jellemzőkkel rendelkező szolgáltatásokat. Az utóbbi években jelentős erőfeszítés történt olyan IP alapú hálózatok kifejlesztésére, amelyek a garantált minőségi igényeket (QoS, Quality of Service) hatékonyan tudják támogatni. A telekommunikációs rendszerek szolgáltatásainak a felhasználók számára kielégítő minőségben való garantálása nem triviális feladat, mivel három csoportba sorolt tényező is megváltozik az idők során a technológiai fejlődés következtében: a.) Az első tényező az Interneten forgalmazott bájtmennyiség évenkénti duplázódása, ami tulajdonképpen Moore törvény egyenes következménye. Mint ismeretes, Moore szerint az egységnyi területre integrált áramköri elemek darabszáma évenként duplázódik, vagyis a felhasználóknál az azonos költségen tárolható bájtmennyiség ugyanilyen ritmusban növekszik. b.) A forgalmak modellezését nehezítő másik tényező főként a szórakoztató ipar által motivált sávszélesség emésztő alkalmazások megjelenése, mint pl. a zenei és a film műsorok cseréje, stb. c.) A harmadik tényező az Internet hagyományos, illetve új, valós idejű kommunikációs szolgáltatásai forgalmának különbözőségéből adódó, még nem teljesen szabványosított QoS átviteli minőségi osztályok bevezetésének és működtetésének rohamos elterjedése. Ezt egyrészt a konvergens (konvergált) hálózati szolgáltatások, elsősorban a hagyományos PSTN telefonrendszert magába olvasztó VoIP (Voice over IP) technológiának a telefonálás percdíját “gyilkoló” forradalmi gazdasági hatása okozza. Hasonló húzóerőt képez az Internet felett igény szerinti (VoD – Video on Demand) televíziózást lehetővé tevő IPTV és a hagyományos interaktív adatátvitelnek a LAN/WAN hozzáférési hálózatokban (DSL, Cable TV, WiFi, stb.) közös IP technológián történő egyidejű használatának igénye is. Szolgáltatói oldalon az első tényező hatását érzékelni lehet, és a köztes gerinchálózati eszközökben a már rendelkezésre álló üzemmód konfigurációs beállítások segítségével igény szerinti közbe lehet avatkozni. A forgalmak mennyiségi jellemzői, és útvonalának ismerete alapján a szolgáltatói hálózat fejlesztését (topológia, átviteli ráta, kapcsolók teljesítménye, stb.) igény szerinti mértékben kellő körültekintéssel el lehet végezni. A második tényező által okozott rendszeres forgalomváltozás szolgáltatói oldalon esetenként lekezelhető ugyancsak rendszerkonfigurációs lehetőségekkel (hozzáférési listák, felhasználói szabályzatok, stb.). A második tényező által véletlenszerűen, valamint a harmadik tényező által egyre gyakrabban okozott forgalmak kezeléséhez a szolgáltató számára még nem állnak rendelkezésre egyértelmű eszközök. Emiatt szükséges a különböző adatforgalmak mélyebb, statisztikai szintű elemzése is. A hálózati forgalom folyamatok elemzéséhez a szolgáltatói hálózat erőforrásainak (csatorna, várakozási sor, CPU, stb.) használatát vizsgáltam, amihez egy új, saját módszert, az ON/(ON+OFF) transzformációt vezettem be és alkalmaztam. A Corvil, vagy hatékony sávszélesség (CB-Corvil Bandwidth) fraktál koncentrációs értéket mutat. E felett a forgalom börsztös és multiplexeléssel nem csökkenthető ennek mértéke, míg ez alatt a forgalom torlódik. A CB és a továbbítás késleltetése közötti kapcsolat nem lineáris. Ennek okát kutatjuk a és adunk számszerűsíthető magyarázatot, ami a gyakorlatban közvetlenül alkalmazható, hatékonyságnövelő hatást fejt ki. This theses evaluates the effect of packet switched network resources allocation to the real time application, based on the analysis of quality of service (QoS) of the infocommunication networks. Five thesis summarizes the quality modification of the network applications in "Best Effort" network environment, where data the packet flows are congestion free and controlled by QoS mechanism, respectively. Despite its enormous and increasing popularity, the Internet is not able to provide services with guaranteed quality. A considerable effort happened in the last years to develop IP networks that are able to ensure the demanded QoS. Guaranteeing satisfactory QoS of the telecommunication systems for the users is not a trivial task, because factors assigned into three groups change in the course of time as a result of technology development: a.) The first factor is the doubling of byte quantity distributed on the Internet in each year, which is in fact a direct consequence of Moore’s law. According to Moore, the number of circuit elements integrated onto the unit of area doubles annually, which means the byte quantity stored with identical expense at the users is growing at the same rate. b.) The second factor making the modeling of traffics harder is the appearance of bandwidth-hungry applications, such as music and file sharing. c.) The third factor is the rapid spread of not yet standardized QoS service classes caused by the difference between old and new, real-time communication services on the Internet. This is generated primarily by the convergent network services effect of the integration of traditional telephone system onto VoIP (Voice over IP) technology and the price reduction of telephone service. The same effect is detected at the IPTV, VoD (Video on Demand) and traditional data traffics transferred simultaneously on the same LAN/WAN access networks (DSL, Cable TV, WiFi, etc.). It is possible to detect the effect of the first factor on the provider side, and intervention is possible by configuring the intermediate nodes correspondingly. Based on the quantitative characteristics of the traffics and the knowledge of the routing paths, the development of production network (topology, transfer rate, switching capacity) is feasible. The continuous changes of traffic characteristics in the service provider network are also manageable with special control mechanisms (access lists, service regulations, etc.). Mechanisms appropriate for the efficient treatment of ad hoc traffics generated by the second factor and traffics influenced by the third factor are not yet obvious on the service provider side. Therefore, it is necessary to analyze the various packet switched data traffics in more depth, using statistical methods. I applied my own method named ON/(ON+OFF) transformation for analysis of the network traffic time series and I studied the utilization of network resources (channel, queue, CPU, etc.). The effective bandwidth, called CB-Corvil Bandwidth shows a fractal concentration level. The traffic exceeding this level becomes bursty and the effect cannot be reduced, but traffic below this level can be congested. The relation between CB and the transmission delay is not linear. The reason of this phenomenon is studied and quantitative responses are given, assuring increasing efficiency effect applicable directly in practice.Tétel Szabadon hozzáférhető Az Egerfood Információs Rendszer(2010) Radványi, Tibor Zsolt; Kormos, János; Radványi, Tibor Zsolt; Informatikai tudományok doktori iskolaAbsztrakt Jelen értekezés az Egerfood Információs Rendszert írja le. Különös tekintettel az adatbázis séma tervezésének lépéseire, az SQL szerver kiválasztásnák kritériumaira, a kriptográfiai alrendszer megtervezésére, és a szoftverrendszer kialakítására. Az értekezés első fejezetében áttekintem a fejlesztés kezdetekor volt helyzetet. Megfogalmazom a téziseket, melyeket később bizonyítok. Áttekintem a különböző résztémákhoz tartozó irodalmi előzményeket, azokat a cikkeket, melyek segítséget nyújtottak a rendszer fejlesztésében, melyek ötletet adtak a továbblépéshez. A második fejezetben az adatbázis-modell kialakítását elemzem. Kiindulva a megvalósítást befolyásoló tényezők, a kezdeti feltételek felvázolásától. Ezek a feltételek nagyrészt a megrendelő, a RET kutatócsoportját alkotó kollégák feltételei, melyeket helyenként át kellett informatika nyelvre fogalmazni. Olvashatunk az adatmodell kialakításáról részletesen, és a használatáról. A kialakított adatmodell legyen általános szerkezetű relációs adatbázis, mely segítségével a cégek és a termékeik előállításának folyamatai későbbi bővítések, vagy partícionált adatbázis használata nélkül tárolhatóak. A harmadik fejezetben az információs rendszer bemutatása következik. Két fontos részre oszlik. Az elsőben a kliensprogram felhasználói felületének automatikus kialakítását segítő program leírása található. A munkafolyamat gráf készítő program egy olyan XML file-t generál, mely bemenetét képezi a kliensprogramnak, és melynek segítségével létrejöhet a felhasználói felület. Ez azért fontos, mert az Egerfood rendszerben különböző profilú termelő cégek különböző termékeinek a nyomonkövetése a cél. A harmadik fejezet második nagy részében az Egerfood rendszer kriptográfiai alrendszerét fejtem ki. Nagy hangsúly került erre a rendszerre is, mert a termelő cégek ipari titkoknak minősülő receptúrákat is tárolnak az adatbázisban. Fontos követelményük volt, hogy a megfelelő szintű biztonságot tudjuk fenntartani. Abstract The present PhD thesis describes the EGERFOOD Information System. In particular, the database schema design steps, criteria of SQL server selection, cryptographic subsystem design and software development. In the first chapter I take in the situation it was the beginning of a development. I formulate the theses, which evidence is later. I review literary history ancillary the various topic, articles, which helped develop the system, an idea which has been granted to proceed. In the second chapter, I analyze the development of the database model. I start factors affecting the implementation, initial conditions presentation. These conditions are largely the customer, in terms of RET resourcer team creative colleagues, which at times had to be drawn into IT. We can read the data model in detail the development and use. The data model is designed to be a general relational database structure, which enables companies and their products in the production processes of future enlargements, or stored without using a partitioned database. In the third part of the second chapter I studied the MSSQL server in terms of data insert. In the system will be an important task the data entry, because from the beginning in the initial pilot scheme is already outside of the college lab data of the 6 firm get into the central data warehouse database. The third chapter follows the presentation of the information system. There are two important parts. The description of a program helping the automatic forming of the application surface of the client program in the first can be found. The WorkFlow Graph maker program generates generates like XML file, which forms the input of client programs, and by the help of which to create a user interface. The second part of the third chapter I present cryptographic subsystem of the system EGERFOOD. Great emphasis has been on this system, because the companies stores industrial secrets in this database.Tétel Korlátozottan hozzáférhető Webontológiák felhasználási lehetőségei(2010) Jeszenszky, Péter; Bognár, Katalin; Jeszenszky, Péter; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar -- Információ Technológia TanszékJelen doktori értekezés a szerző a szemantikus webhez kapcsolódó új eredményeit tárgyalja, amelyek itt négy tézisben kerülnek összefoglalásra. Az 1. tézis részletes kifejtését az értekezés Modellezés című I. része tartalmazza (1. fejezet), a 2. és a 3. tézisét az RDF kinyerés című II. rész (2. és 3. fejezetek), végül a 4. tézisét a Csomagkezelés című III. rész. This doctoral dissertation discusses new results by the author related to the Semantic Web, that are summarized in four theses here. The detailed discussion of Thesis 1 can be found in Part I: Modelling of the dissertation (Chapter 1), Thesis 2 and 3 in Part II: RDF Extraction (Chapters 2 and 3), and Thesis 4 in Part III: Package Management.Tétel Szabadon hozzáférhető Approximation of Sets Based on Partial Covering(2011) Csajbók, Zoltán Ernő; Mihálydeák, Tamás; Pethő, Attila; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar -- DE--TEK--Informatikai Kar --The subject of the thesis is the set approximation. First, in the early 1980's, Z. Pawlak raised the question what would happen if the subsets of a ground set should be approximated by a beforehand predefined family of subsets of the ground set itself. In Pawlak's rough set theory, the sets used for approximation are the equivalence classes which are pairwise disjoint and cover the ground set. If we do not require the pairwise disjoint property, we get a possible generalization of the theory. Its detailed elaboration can be found in the literature. The main question of the thesis is what would happen if we gave up not only the pairwise disjoint property but also the covering of the ground set. First, the minimal requirements as against the generalization of lower and upper approximations are formulated. It is shown that both Pawlak's rough set theory and the approximation of sets based on partial covering meet these requirements. Next, it is enlarged on how the properties of the lower and upper approximations based on partial covering change compared to Pawlak's well known ones. The results concerning the Galois connection of upper and lower approximations are discussed in a separate chapter which contains a necessary and sufficient condition. Finally, the practical implications of the new approach are illustrated by a few examples. Az értekezés tárgya halmazok közelítése. Elsőként Z. Pawlak lengyel matematikus vetette fel az 1980-as évek elején, hogy mi történne akkor, ha egy alaphalmaz részhalmazait előre megadott részhalmazaival közelítenénk. A Pawlak-féle közelítő halmazelméletben (rough set theory) a közelítésre használt halmazok ekvivalenciaosztályok, amelyek páronként diszjunktak és lefedik a teljes alaphalmazt. Az elmélet egy lehetséges általánosítása a páronkénti diszjunktság feloldása. Ennek részletes kidolgozása megtalálható az irodalomban. A dolgozat fő kérdése az, hogy mi történik akkor, ha nemcsak a páronkénti diszjunktságot, hanem a teljes lefedést is feladjuk. Az értekezés megfogalmazza az általánosítás minimum követelményrendszerét. Megmutatja, hogy mind a Pawlak-féle, mind a parciális lefedésen alapuló halmazközelítés kielégíti azt. Ezt követően részleteiben is áttekinti, hogy a parciális lefedésen alapuló alsó-felső közelítések tulajdonságai hogyan változnak a Pawlak-féle közelítések jól ismert sajátosságaihoz képest. Külön fejezet tárgyalja a felső-alsó közelítések Galois kapcsolatára vonatkozó eredményeket, amelyben egy szükséges és elégséges feltétel megadására is sor kerül. Az értekezés az új megközelítés gyakorlati alkalmazásait bemutató példákkal zárul.Tétel Korlátozottan hozzáférhető Kriptográfiai hash függvények és álvéletlenszám generátorok(2011) Folláth, János; Pethő, Attila; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar --A dolgozat 3 nagyobb részből áll és fő témáját két kriptográfiai primitív jelenti. Az első rész egy álvéletlen generátor konstrukcióval és a bináris sorozatokra vonatkozó álvéletlen mértékekkel foglalkozik. A második rész egy kriptográfiai hash függvénnyel és annak tulajdonságaival foglalkozik. A harmadik rész témája a második rész témájául szolgáló kriptográfiai hash függvény gyakorlati megvalósítása és egy lehetséges alkalmazása. The dissertation consists of 3 major parts, and its main topic are two cryptographic primitives. The first part is about a pseudorandom generator construction and pseudorandom measures of pseudorandom binary sequences. The second part describes a new cryptographic hash function and deals with the proof of its properties. The topic of the third part is the implementation of the cryptographic hash function described in the second part, and a possible application of it.Tétel Szabadon hozzáférhető Objektumorientált tervezési alapelvek és tervezési minták döntésalapú elemzése, a döntésösszevonás elmélete és gyakorlata(2011) Márien, Szabolcs; Terdik, György; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar -- Információ Technológia Tanszék; DE--TEK--Informatikai Kar -- Információ Technológia Tanszék; DE--TEK--Informatikai Kar -- Információ Technológia Tanszék; DE--TEK--Informatikai Kar -- Információ Technológia TanszékÉszrevételem szerint a tervezési alapelvek és tervezési minták legfontosabb célja az implementációs függőségek típusain belül a különböző döntésszerkezetek szerinti döntésredundanciák, mint egyfajta implementációs függőségek feloldása. Nem megfelelően implementált, redundáns döntések implementációs függőségeket eredményeznek, melyeket döntésszerkezeti implementációs függőségnek nevezek. A programban lévő döntések során arról döntünk, hogy egy adott ponton milyen funkcionalitásra és/vagy adatszerkezetre van szükségünk. Amikor egy döntést definiálunk a döntés döntéslehetőségeinek funkcionalitását és/vagy adatszerkezetét adjuk meg. A döntéslehetőségen a döntés egy lehetséges kimenetelét értjük, amely a döntéslehetőségnek megfelelő funkcionalitás és/vagy adatstruktúra érvényre jutását jelenti, illetve a döntéslehetőség teljesülését jelentő döntéspredikátumot, ami alapján eldől, hogy egy adott döntési helyen melyik döntéslehetőség jut érvényre. Ahhoz, hogy a döntésredundanciák feloldásának lehetőségeit megértsük az objektumorientált módszertan alapeszközének, az öröklődésnek az értelmezését kell kiterjeszteni: Az öröklődés a programban lévő döntésredundanciák feloldásának eszköze, amely a döntések összevonása és kiemelése után azok deklarációjára ad egy absztraktabb keretet. Ezzel természetesen a többi objektumorientált alapfogalom is más megközelítésbe kerül. A refaktorálás, mint a kód minőségjavítás módszere, foglalkozik a döntésstruktúrák osztály-alosztály kapcsolatokba történő kiemelésének lehetőségeivel; ugyanakkor nem részletezi a döntésredundanciák esetei szerinti döntésösszevonások lehetőségeit, melyet dolgozatom egyik eredményeként a döntésstruktúrák refaktorálással történő optimalizálásának fő lehetőségének gondolok. A programokban lévő döntésismétlődések megszüntetésére a döntések osztályhierarchiákba történő kiemelésével vagy már kiemelt döntések összevonásával van lehetőség, amely után a döntések lehetőségeihez tartozó adattartalmak és funkcionalitások egy osztály alosztályaiban kapnak keretet. Tehát a döntésösszevonás lehetőségét megadó döntéskiemelés során a döntés definíciót egy absztraktabb formában, azaz egy osztályhierarchiában adjuk meg, ahol a döntés „felületét” egy polimorf metódus jelenti. Kiemelve a döntéseket és a döntéslehetőségeket egy osztályba és annak alosztályaiba, a megfelelő döntésösszevonásokat elvégezve lehetővé válik, hogy a döntéseket egy helyen meghozva, annak eredményét a kiemeléskor, összevonáskor megadott osztályba és annak alosztályaiba „zárva” (példányosítás) archiváljuk. A létrejövő objektumot egy referencia változóval hivatkozzuk, amely típusa a szülőosztály. Az adott döntés további döntési pontjain már a meghozott, archivált döntés eredményét – szülőosztály típusú referencia típusú változót használhatjuk fel úgy, hogy nem kell figyelni arra, hogy a döntés során mely döntéslehetőség érvényesült, azaz melyik alosztályt példányosítottuk, hiszen a szülőosztály típusával hivatkozva a későbbi felhasználások során rejtve, bezárva marad, mivel a döntés felületét egy polimorf metódus adja. A döntéseknek két állapotát különböztetjük meg attól függően, hogy az adott döntés definiálása, azaz a döntéslehetőségek adatstruktúrái, metodológiája egy metódusban van-e megadva vagy már kiemelten egy osztályban és annak alosztályaiban. Meghatározom azokat a döntésszerkezeti jellemzőket, amelyek esetén a döntésredundanciák megszűntetése indokolja a döntésösszevonásokat. A döntésösszevonások megfogalmazott esetei kulcsfontosságúak a döntésszerkezetek alapján javasolt tervezési alapelvek és metrikák, tervezési minták jellemzői szempontjából. Megfogalmazok két új tervezési alapelvet. Az első alapelv – „Öröklődést döntésredundanciák megszűntetésére használjunk!” – egyértelműen meghatározza azon eseteket, amikor az öröklődés, mint objektumorientált eszköz használata az objektumösszetétellel szemben indokolt lehet. Mivel a már meglévő tervezési alapelvek egy kritikus pontja annak eldöntése, hogy az öröklődés használata mely esetekben indokolt, ezért az új elv lényeges kiegészítést jelent a már meglévő alapelvek tekintetében. A döntésredundanciák csökkentése, mint új cél elérése érdekében megfogalmazott másik új alapelv: „A döntésredundanciákat kerüljük!”. Az elképzelésnek megfelelően az objektumorientált alapeszközök és a már meglévő tervezési alapelvek értelmezését is kiegészítem, amely alapján a tervezési alapelvek céljaival összhangban levő tervezési minták céljai, leírásai is változnak. Olyan új objektumorientált metrikákat vezetek be, melyekkel lehetőség van a programban szereplő döntésredundanciák mértékének megállapítására, illetve, melyekkel a bevezetett tervezési alapelvek teljesülése mérhető. („Döntésabsztrakciós metrika”, „Döntéskiemeléssel létrejött öröklődések aránya”, „Ekvivalens döntésesetek aránya”, „Döntéspredikátumában eltérő egyéb viselkedésében egyező döntésesetek aránya”, „Ekvivalens döntéspredikátumú döntésesetek aránya” metrikák) A tervezési minták új értelmezés szerinti célja a jól strukturáltság elérése a döntésismétlődések megszűntetésével. Tehát a tervezési minták a döntéskiemelésekre adnak recepteket, vagyis arra, hogy a különböző strukturált döntési helyzetekben a döntésismétlődés megszüntetése miként biztosítható. A tervezési minták osztályozhatók aszerint, hogy milyen döntésszerkezetek esetén adják meg az optimális döntésdeklarációkat, illetve, hogy a döntésarchiválás mely módját támogatják. A tervezési minták alkalmazásának egy új irányát vehetjük észre, miszerint a döntések nem kiemelt állapota esetén is észlelhetők azok a döntéskapcsolatok, amelyek az adott tervezési mintára jellemzőek, így a tervezési minták nem csak a jelenlegi formájukban ismerhetők fel, hanem a döntések nem kiemelt állapota esetén a tervezési minták „lenyomatai” is észlelhetők. Ez új lehetőséget ad annak tisztázására, hogy milyen esetekben lehetséges egy adott tervezési minta felhasználása, hiszen egy tervezési minta leírásakor nem egy optimális megoldás paramétereit kell, hogy megadjuk, hanem egy olyan tervezési helyzet körülményeit, amikor egy adott tervezési minta felhasználásával egy optimálisabb struktúra kialakítása érhető el. Tehát a tervezési minták bevezetésének lehetősége sokkal érthetőbbé válik, mivel konkrét megoldástól független jellemzők, a döntésszerkezet szerint határozható meg egy tervezési minta alkalmazhatósága. Abban az esetben, ha a döntések elemzése automatizált eszközökkel is megtehető, akkor lehetőség nyílhat a tervezési minta alkalmazás szükségességének automatikus felismerésére. Hogy az elképzelésnek megfelelően a strukturáltságot, azaz a jól strukturált program irányelveinek teljesülését elemezni tudjuk, szükséges egy olyan formalizációs eszköz, amellyel a döntések viselkedése vizsgálható. Erre a Java programok viselkedés interfész specifikációs nyelvét, a JML-t használom, amely lehetőséget ad a döntés lehetőségeinek adatstruktúráját, metodológiáját logikai kifejezésekre alapozva specifikálni. Az így formalizált döntések vizsgálata a döntésösszevonás szabályai szerint már lehetséges. A JML alapú döntésspecifikációra alapozva a tervezési mintákat jellemző döntésszerkezet is modellezhető. A „Híd” tervezési mintában található döntésszerkezet deklarációk különböző állapotainak formális leírását külön-külön adom meg, amely alapján megfogalmazom azokat az általános szabályokat, amelyek a JML-es döntésszerkezet szerinti tervezési minta formalizálás alapjai lehetnek. Az elgondolás helyességének vizsgálataként az elmúlt másfél évben folyó „eFilter” kutatás-fejlesztéses projekt projektvezetőjeként és vezető tervezőjeként a tervezési fázisában kezdeményeztem, hogy a tervezési minták alkalmazhatóságát a döntésszerkezetek elemzésével végezzük, mely során számos komplex tervezési problémára sikerült optimális megoldást találni. A projekt során a döntésszerkezetek – tervezési minták összefüggéseinek egy új irányát sikerült felfedezni, miszerint a tervezési mintákra jellemző döntési helyzetek már a használati eset modellekben is megjelennek. Új kutatási irány ennek megfelelően az, hogy a tervezési minták a használati eset modellekben miként jelennek meg, illetve hogy a tervezési minták döntésszerkezetei hogyan tükröződnek a használati esetek szintjén. As I noticed, the most important goal of design patterns and design principles is the elimination of the decision structure based redundancies as a kinds of implementation dependencies. The not properly implemented, redundant decisions result in implementation dependencies, which are called decision structure implementation dependencies. During the decisions in the application, we decide about the functionality and/or data structure needed at a given point. When we define a decision, we give the functionality and/or data structure of the decision’s decision options. By decision option, we mean one possible outcome of a decision, which means the enforcing of the functionality and/or data structure appropriate for the decision option, and the decision predicate which decides which decision option will set off at a given decision location. In order to understand the options of dissolving the decision redundancies, we need to extend the basic concept of object-oriented methodology, the inheritance: The inheritance is the tool to dissolve the decision redundancies in the software, which gives a more abstract framework to declare decisions after their contraction and raising. With this, all the other basic concepts of object-oriented programming change as well. Refactoring, as the tool of improving the quality of the code, handles the options of raising the decision structures into class-subclass relations, but in the same time, it does not detail the options of decision contraction according to the cases of decision redundancies, that, as a result of my thesis, I think to be the main option of optimizing the decision structures by refactoring. To extinguish the decision-recurrence in softwares, we have the option to organize the decisions into class hierarchies or to contract the already organized decisions, after which the data that belongs to the decisions’ options and functionalities will get a frame in a class’ subclasses. So during the decision-raising that gives the opportunity of the decision-contraction, the decision definition is given in a more abstract form, namely in a class hierarchy, where the “surface” of the decision is meant by a polymorph method. By raising the decisions and decision options into a class and it’s subclasses, than executing the appropriate decision contractions, it becomes possible to make the decision in one place and to archive it by closing the results into the same class and it’s subclasses given during the raising and contraction (instantiating). The object created this way is referenced with a reference variable which’s type is the parent class. On the further decision locations of the given decision we can use the result of archived decision – as a variable with a reference type and parent class type – in a way that we do not need to check what decision option was enforced during the decision, namely which subclass had been instantiated, because it remains hidden and closed during further usage as it is referenced with it’s parent class because the surface of the decision is given by a polymorph method. We differentiate two states of the decisions depending on that if defining the given decision, namely the data structures, methodology of the decision options are given in one method, or are raised to a class and it’s subclasses. I appoint those decision structure parameters, when the elimination of the decision redundancies justifies the decision-contractions. The defined cases of decision-contractions are the keys to the parameters of the design patterns, the designing principles and metrics suggested by the decision structures. metrics. I formulate two new design principles. The first principle – “Inheritance is used dissolve decision redundancies.” – clearly identifies those cases, when the usage of inheritance as object-oriented tool is reasonable over against object composition. As one of the critical points of the existing design principles is the decision of when is the use of inheritance justified, the new principle means a significant supplement in point of the extant principles. In favour of the diminishing of the decision redundancies, as an achievable new goal, the other new principle is the following: “Avoid decision redundancies.” According to the concept, I also expand the interpretation of the basic object-oriented paradigms and the existing design principles, under which the goals and descriptions of the design patterns in consort with the goals of the design principles will change to. I initiate such new object-oriented metrics, that gives opportunity to determine the degree of decision-redundancies in the software, or rather, with which the fulfillment of the initiated design principles is measurable. (The “Ratio of equivalent decision cases”, „Ratio of decision cases different in their decision predicate but the same in any other behavior”, „Ratio of decision cases with equivalent decision predicate” “Ratio of inheritances coming into existence by decision-raising”, “Metrics of Decision-abstraction” metrics.) The goal of design patterns according to the new presentation is to achieve a well-structured program by dissolving decision recurrences. So the design patterns give a recipe for decision-raising, or rather to that how can the decision recurrences be avoided in different structured decision situations. The design patterns are classifiable by in what cases of decision structures do they give the optimal decision-declarations, or rather what kind of decision archiving method do they support. We can notice a new way in using the design patterns, that the decision-structures that are typical to the given design pattern can be noticed even if the decision is not in a raised state, hence the design patterns are not only recognizable in their current form, but the “imprints” of the designing patterns can be noticed in the non-raised state of the decisions. This gives a new opportunity to clarify in what cases is the usage of a given design pattern is possible, as when describing a design pattern we do not need to give the parameters of an optimal solution, but the circumstances of design situation, when by using the given design pattern a more optimal structure can be developed. Thus the possibility of initiating the design patterns become more understandable, as the applicability of a design pattern can be determined by parameters independent of the factual solution, which is according to the decision structure. In the case when the analysis of the decision can be done by automated tools, it may be possible to automatically realize the need of using a design pattern. As to be able to analyze, according to the idea, verify the structuredness, namely the fulfillment of the principles of a well-structured software, we need a formalization tool that can be used to examine the behavior of decisions. For this, I use the behavior interface specification language of the Java applications, the JML, that enables to specify the data structure, methodology of the decisions’ options based on logical expressions. The examination of the decisions formalized in this manner is now possible according to the rules of decision-contraction. Built upon the JML-based decision specification, the decision structure describing the design patterns can be modeled to. I give the formal descriptions of the different states of the decision structure declarations found in the design pattern one by one, by which I formulate those general rules, that can be the basics of the design pattern formalization according to the JML decision structure. As the examination of the conception’s correctness, as project leader and lead designer of the eFilter research-expansion project going on in the last one and a half year, in the design phase I initiated that the design patterns’ applicability be analyzed by the decision structures, during which we have managed to find optimal solution for many complex designing problems. During the project, I have managed to discover a new direction in the connection of the decision structures and design patterns, that the design patterns yet appear in the use case models based on decision situations. According to this, the new research direction is to find out how does the design patterns appear in the use case models, or rather how does the decision structures of the designing patterns reflect on the level of use cases.Tétel Szabadon hozzáférhető Proxy Cache szerverek hatékonyságának vizsgálata(2011) Bérczes, Tamás; Sztrik, János; Informatikai tudományok doktori iskolaJelen disszertáció keretében a Proxy Cache szerverek hatékonyságát vizsgáltam meg. A disszertációban bemutattam az általunk általánosított Proxy Cache szerver modellt majd megvizsgáltam, hogy milyen paraméterek mellett éri meg Proxy Cache szervert üzemeltetni. További általánosításként megvizsgáltam azt az esetet is, amikor a Proxy Cache szerver valamint a Web szerver nem megbízható. A dolgozatban tanulmányoztam azt az esetet is, amikor az érkezési folyamatok nem Poisson folyamat, hanem úgynevezett GI - General interarrival" folyamat, melyet az érkezési időközök várható értékével és a relatív szórásnégyzetével jellemzünk, valamint a kiszolgálási idő bármilyen általános eloszlású lehet. Az így kapott modellben a rendszerparaméterek kiszámításához a GI/G/1 approximációt használtam. Végül megvizsgáltam hogyan milyen hatással van a heterogén forgalom a Proxy Cache szerverek hatékonyságára. In this dissertation I described the mathematical model of Proxy Cache servers and I studied the conditions under which installing a Proxy Cache server becomes beneficial. I also analyze how various factors affect the performance of a Proxy Cache server. Than, I generalize the performance model of the Proxy Cache server using a more realistic case when the Proxy Cache server and the remote Web server are unreliable. Later I analyse the case when the arrival process is a general (GI) arrival process characterised by a mean arrival rate and a squared coeficient of variation (SQV) of the inter-arrival time and the service time may have any general distribution. To obtain the response times I used the GI/G/1 approximation. Than I examine the performance behavior of a Proxy Cache server when we use heterogeneous trafic. In this thesis we describe the modified multi-class queuing network model of the Proxy Cache server.Tétel Szabadon hozzáférhető Ensemble Methods in Medical Decision Making(2012) Antal, Bálint; Hajdu, András; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar -- Komputergrafika és Képfeldolgozás tanszék; DE--TEK--Informatikai Kar -- Komputergrafika és Képfeldolgozás tanszék; DE--TEK--Informatikai Kar -- Komputergrafika és Képfeldolgozás tanszékComputer-aided decision support in medical problems is a prominent research area nowadays. In this PhD thesis, two approaches are shown to support the medical decisions for diabetic retinopathy (DR). This disease is one of the most common causes of blindness in the developed countries. Thus, timely and precise detection is essential for a large population. Furthermore, high reliability of the diagnosis is also desired. The first major contribution of this thesis is an approach to the early detection of DR on color fundus images. This approach aims to detect the earliest signs of DR, namely microaneurysms (MAs). Since MA detection in color fundus images is a very challenging task, we propose a novel ensemble-based framework to ensure reliable fusion of MA detection output, namely ensembles. This approach proved its capabilities in exhaustive evaluation, including a competition dedicated to the comparison of MA detectors (Retinopathy Online Challenge), where it is currently ranked as first. The second major contribution of this thesis is an approach to retinal image grading based on the detailed analysis of color fundus images. Both the detected anatomical parts and presence of lesions are considered as features. We use an ensemble of machine learning classifiers for grading the retinal images based on the extracted features. As the results on a publicly available database show, a highly accurate grading system is achieved in this way.Tétel Korlátozottan hozzáférhető Sejtautomaták szociodinamikai alkalmazásai(2012) Kocsis, Gergely; Sztrik, János; Kun, Ferenc; Kocsis, Gergely; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar -- Informatikai Rendszerek és Hálózatok; DE--TEK--Informatikai Kar -- Informatikai Rendszerek és Hálózatok; DE--TEK--Informatikai Kar -- Informatikai Rendszerek és Hálózatok; DE--TEK--Informatikai Kar -- Informatikai Rendszerek és Hálózatok; DE--TEK--Informatikai Kar --Kutatómunkám célja a statisztikus fizikából ismert folyamatokkal hasonlóságot mutató szociodinamikai problémák vizsgálata számítógépes szimulációval, kiaknázva az informatika nyújtotta új lehetőségeket. A dolgozatban először ismertetem az egyes statisztikus fizikai és szociológiai folyamatok között megfigyelt analógiát, melyből kiindulva lehetőség nyílik egy új vizsgálati formára a szociodinamikai jelenségek esetében. Ezután ismertetem a munkám során használt egyed-alapú modellezés alapjait, különös tekintettel a sejtautomata modellezésre. E fejezet második felében térek ki a szociális hálózati topológiákra. Itt válik hangsúlyossá a téma kapcsolata a informatikai tudományokkal. Az ezt követő fejezetekben a kutatómunka során elért eredményeket ismertetem. Először egy a piacon megjelenő innovációval kapcsolatos információ terjedését vizsgálom, majd a különböző technológiai fejlettségű termékek versengése kerül a középpontba. Ebben a két fejezetben bemutatom a vizsgálatokhoz alkotott modelleket, analitikus számításokat, illetve numerikus szimulációval kapott eredményeket. A disszertációt az összefoglalóval zárom. In this thesis I study sociodynamical phenomena - that show similarity to some statistical physical ones - with computer simulations, using the new possibilities of computer science. In the thesis first I show the analogy between some phenomena from statistical physics and sociology. This shows that the tools used in statistical physics may be useful as well in some cases in sociodynamics. Then I describe the basics of agent based modelling, with a special attention to cellular automata. In the second part of this section I introduce the social network topologies that I will use. This is the place where I point out the importance of the topic in computer science. After these I present my results. First I study the spreading of information about new innovations in socio-economic systems, then I focus on the copetition of different technologies. In these sections I present the models I've created, the analytical calculations, and the numerical simulations that I did. At the end I finish the thesis, with the discussion.Tétel Korlátozottan hozzáférhető Computational methods for optimization problems(2012) Bekéné Rácz, Anett; Bajalinov, Erik; Rácz, Anett; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar --A mi munkáink azon alapulva születtek, hogy a nagyméretű optimalizációs problémák esetén speciális számítógépes feldolgozásra van szükség, ahhoz hogy hatékony és pontos megoldást kapjunk. Ezek a technikák elengedhetetlenek ahhoz, hogy a szoftverek teljesítménye lépést tartson a modellek növekedésével. A dolgozatomban bemutatom az általam kidolgozott optimalizációs előfeldolgozó eljárásokat (különös tekintettel a hiperbolikus és az egészértékű problémákra), melyek célja, hogy a problémák szoftveres megoldását stabilabbá és gyorsabbá tegyék. We were motivated by the fact that large scale optimization problems to be solved correctly and efficiently usually require such special additional computational techniques as preprocessing and scaling. These techniques very often lead to considerable performance improvement of used solvers. The main goal of my dissertation is to present the methods developed by myself during my PhD studies for preprocessing optimization problems (especially for Linear-Fractional (LFP) and Integer Programming (IP) models) in order to obtain a more stable and faster solution process.Tétel Szabadon hozzáférhető Decision-Making Models for Optimal Engineering Design and their Applications(2012) Mosavi, Amirhosein; Hoffmann, Miklós; Nagy, Péter Tibor; Informatikai tudományok doktori iskola; DE--TEK--Informatikai Kar -- DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar --; DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar -- DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar --; DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar -- DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar --; DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar -- DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar --; DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar -- DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar --; DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar --The task of solving optimal engineering design problems is considered as a demanding decision-making process where the real-life industrial problems typically have to be considered from very different perspectives. In this context the most logical approach to achieving the best solution, at the presence of multiple design criteria and numerous design variables, has been the task of performing scientific optimization to produce potential solutions for further decision-making. Accordingly multiple criteria decision-making approaches to optimal engineering design problems, via employing efficient, robust, global and multi-objective optimization algorithms, have brought a significant and competitive advantage to the optimal design. However most of these approaches, due to the characteristics of the real-life problems, often associated with the usage, dimensionality and high computational cost of the objective evaluations, have not been practical and widely acceptable in engineering design community. Here the difficulties and further requirements of utilizing the optimization approaches in optimal engineering design are discussed with a more emphasis on challenges to complex geometries, dimensionality, and multiple criteria nature of the real-life engineering design problems. As a response to the considered challenges, performing the optimizations approaches in the framework of an integrated design environment is proposed as the key success to win industry. Further this research the metamodels in general approaches to optimal engineering design, are seen as the essential but not sufficient tools to enhance creating the efficient global optimization approaches in dealing with dimensionality. In fact by extension the dimension of multiple criteria decision-making problems which has been mostly due to the increasing number of variables, optimization objectives, and decision criteria, presenting a decision-maker with numerous representative solutions on a multidimensional Pareto-optimal set can not be practical in engineering applications. Accordingly for better dealing with the ever increasing dimensionality a supplementary decision-support system to enhance the metamodels is proposed. As the result an improved decision procedure is formed according to the limited human memory and his data processing capabilities. In this context the research further contributes in shifting from generating the Pareto-optimal solutions, to the reactive and interactive construction of a sequence of solutions, where the decision-maker is the learning component in the decision-making loop. To doing so the conventional evolutionary and interactive optimization and decision-making algorithms are updated by reactive search methodology, empowered with the advanced visualization techniques, in the framework of an integrated design environment.Tétel Korlátozottan hozzáférhető Titkosítási rendszerek CCA-biztonsága(2013) Márton, Gyöngyvér; Pethő, Attila; Veégh, Gyöngyvér; Informatikai tudományok doktori iskola; DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar -- DE--TEK--Informatikai Kar --; DE--ATC--Mezőgazdaság- Élelmiszertudományi és Környezetgazdálkodási Kar --Jelen értekezés a titkosító rendszerek választott nyílt szöveg alapú támadással, illetve választott rejtjelezett szöveg alapú támadással szembeni biztonságát tárgyalja. Az értekezés legfőbb eredménye egy új kulcsbeágyazási mechanizmus CPA, illetve CCA-biztonságú verziójának a bemutatása. A kulcsbeágyazási mechanizmus alapjául a Rabin-titkosító és a Hofheinz és társai által szerkesztett rendszerek szolgáltak. Az értekezés keretén belül megadjuk az új mechanizmus specifikációját, helyességét, hatékonyságát, illetve bizonyítjuk a rendszer biztonságát. This thesis examines the security of encryption systems, it focuses mainly on two types of attacks on chosen plaintext attack and chosen ciphertext attack. The main result of the dissertation is a CPA and CCA version of a new key encapsulation mechanism. The mechanism is based on Rabin-encryption and on the system constructed by Hofheinz et al. Within the framework of the thesis we give a detailed description of the proposed mechanism, we present the soundness, the efficiency and the proof of CCA security of the proposed CCA-secure mechanism.Tétel Korlátozottan hozzáférhető Kalcium felszabadulási események számítógépes elemzése(2013) Szabó, László Zsolt; Pethő, Attila; Csernoch, László; Informatikai tudományok doktori iskola; DE--Informatikai Kar -- Számítógéptudományi Tanszék; DE--Általános Orvostudományi Kar -- Élettani IntézetÖsszefoglaló Háttér A dolgozat témáját az élettan és biofizika egy sajátos jelenségét vizsgáló kutatások keretén belül alkalmazott számítógépes módszerek képezik. A jelenség izomsejteken belül történik és az izom kontrakciót megvalósító folyamatokat foglalja magába, amelyeknek fontos szereplője a sejten belüli kalcium, mint biológiai üzenethordozó. A tanulmányozott folyamatot először 1993-ban rögzítették konfokális mikroszkóppal, fluoreszcencia alapú képalkotó módszerekkel. Az intracelluláris térrészben történő kalciumkoncentráció változásokat összefoglalóan elemi kalciumfelszabadulási eseményeknek nevezzük, amelyekből léteznek egész sejtre kiterjedő (globális) és csak kis térrészben megjelenő (lokális) események. A néhány mikron átmérőjű térben lezajló események rögzítésének eszköze a konfokális mikroszkóp volt a kutatások utóbbi 20 esztendejében, az esemény megfigyelése Ca2+ ionokhoz kötődő festékek fluoreszcens tulajdonságán keresztül lehetséges. A festék megvilágítása lézer sugárral történik, a konfokális mikroszkóp működéséből adódóan az ily módon felfogott jelek igen kis térrészből rögzítik a jelenség dinamikáját. Ezen a területen a mérési folyamatok vezérlése és rögzítése is számítógépes módszerekkel történik, és szükség van számítógépes módszerekre az eredmények kiértékelésénél is. A konfokális mikroszkóppal készített mérések egy, vagy több dimenziós képek formájában tárolódnak, ezek elemzése képfeldolgozási módszerekkel történik, amelyek közt helyet kapnak a klasszikus képfeldolgozás területébe sorolt, illetve a speciális, mikroszkóp képek feldolgozását biztosító módszerek, különös tekintettel a fluoreszcens képalkotásra. A biofizika, valamint az élettan tárgykörébe tartózó lokális kalcium események paraméterszámítása numerikus módszerekkel történik. A numerikus számítások bemenetét a képfeldolgozás során lokalizált események területeinek mérési adatai jelentik. A tézis hátterét jelentő kutató munka elemi kalciumfelszabadítási események automatikus és interaktív elemzéséhez kötődik, a módszerek a Debreceni Egyetem Orvos- és Egészségtudományi Centrumának Élettani Intézetében folytatott kísérletek folyamán kerültek alkalmazásra. Célkitűzések A tézis fontosabb célkitűzései: a) Konfokális mikroszkóppal készült line-scan képek elemzése számítógépes kép és jelfeldolgozási módszerekkel. Ezek a képek az Élettani Intézetben készültek elemi Ca2+ események biofizikai mechanizmusainak tanulmányozására végzett kísérletekben, munkánk első szakaszában klasszikus kis frekvenciás konfokális mikroszkópokkal (a mikroszkóp sor pásztázási periódusa 1 ms körüli). b) Vázizomban történő, konfokális mikroszkóppal (elsősorban line-scan típusú képek létrehozásával) rögzített Ca2+ események tanulmányozása, statisztikai feladatok megoldásához szükséges paraméterek számítása, Ca2+ esemény jellemzők meghatározása és számítása olyan esetekben, amikor nem létezik az irodalomban általánosan elfogadott módszer erre, pl. Ca2+ „ember” (parázs) típusú események esetében. A kidolgozott módszerek alkalmazása kísérleti adatok feldolgozásában. c) Az esemény detektálási algoritmusok hatékonyságának és megbízhatóságának vizsgálata kalcium eseményeket tartalmazó line-scan képeken. Az algoritmusok konfigurálható paramétereinek hatását lemérve az optimális beállíthatóság elemzése. d) A kidolgozott algoritmusok és elemzési módszerek adaptálása nagy frekvenciás line-scan képek elemzéséhez. A nagy frekvenciás (pásztázási periódus 50 μs körüli), modern mikroszkópok által rögzített képeken ugyanazok a jelenségek más alakzattal jelennek meg, mint a klasszikus képeken. e) A témakörben általánosan használható függvény csomag és grafikus felületű feldolgozó programok kidolgozása az a-d pontokban említett feladatokhoz. Módszerek A fejezetben a konfokális képalkotás területére jellemző kérdések kerülnek bemutatásra, utána a területre jellemző fontosabb kép és jelfeldolgozási módszerekkel foglalkozom. Ebben a részben mutatom be részletesen a line-scan típusú, tér és idő koordinátájú képek jellegzetességeit, és az elemzésükhöz szükséges előfeldolgozó eljárásokat (normalizálás, zajszűrés). A tézis egyik fontos témája a line-scan képeken való eseménydetektálás, bemutatásra kerülnek az irodalomba fellelhető fontosabb detektáló módszerek. A képeken található háttérzaj kezelése centrális kérdés, így foglalkozom a zajszűrés lehetőségeivel is. A kalcium eseményekhez kötött biofizikai paraméterek számítása ugyancsak megoldandó gyakorlati célkitűzés, így itt mutatom be a tudományos közösség által általánosan elfogadott módszereket kalcium spark eseményekre. A dolgozatban alkalmazott algoritmusok egy csoportja diszkrét wavelet transzformációra épül, így a módszertani részben az alkalmazott transzformáció is bemutatásra kerül. A transzformációt Starck és Murtagh alkalmazta először csillagászati képek elemzésére (Starck és mtsai. 1998a), illetve von Wegner és mtsai. (2006) konfokális képekre. Az transzformáció egyik neve à trous transzformáció (stacionárius wavelet transzformáció név alatt is ismert). Wavelet függvényként a köbös B-spline skálafüggvényre épülő waveletet használtam (akárcsak a módszer bevezetői), ennek tulajdonságai különlegesen alkalmassá teszik orvos-biológiai képek elemzésére (véges intervallumon definiáltak, egyszerű algoritmusok alakíthatóak használatukkal, szimmetrikusak, optimális idő-frekvencia lokalizáló tulajdonságaik vannak). Eredmények Ebben a fejezetben négy pontban mutatom be az elért eredményeket, és ezzel támasztom alá a célkitűzésben felsorolt célokat. Az első részben bemutatom a klasszikus, úgynevezett kettős küszöbölő detektáló módszer alkalmazásával elért eredményeket, ezt munkám első időszakában használtam. A képek előfeldolgozására egy fotókorrekciós eljárást fejlesztettem, ezt is ebben a részben mutatom be előfeldolgozó eljárásként. A fejezet második részében a sparkok biofizikai paraméterszámításával kapcsolatos megoldásokat ismertetem. Ugyanitt mutatok be egy új módszer kalcium „ember” (parázs) típusú események paraméterszámítására. A fejezet harmadik részében az à trous wavelet alapú zajszűrés és detektálás saját implementációját mutatom be egy és kétdimenziós esetekre. Foglalkozom egy előszűrési eljárással is (tüskeszűrés, amelyet szintén az à trous waveletre építek). A Továbbiakban az egy dimenziós detektáló algoritmus használatának lehetőségével kalcium „ember” események esetében, mivel ez az eljárás jobb eredményeket ad nem izotróp kiterjedésű események esetében. Itt megadok egy eljárást „ember” típusú események detektálására. Végül a negyedik részben a wavelet alapú detektálás megbízhatóságát, illetve szenzitivitását elemzem egy, a klasszikus módszerrel összehasonlító mérés sorozatban. A mérésben elvégzett teszteket szimulált képeken végeztem, itt mind a háttérzaj, mind pedig az események szimulálására saját módszereket is alkalmaztam (háttérzaj generálása kísérleti képek felhasználásával, esemény szimuláció). A fejezetben konkrét detektálási és zajszűrési paraméter értékekre adok meg megbízhatóság és szenzitivitást jellemző valószínűségeket. Ezek alátámasztják az a feltevést, hogy a wavelet módszer megbízhatóbb és nagyobb szenzitivitást mutat kalcium sparkok esetében. A wavelet módszert teszteltem egy tüskeszűrő előfeldolgozás esetére is, amely növeli a módszer megbízhatóságát jelentős szenzitivitás veszteség nélkül. A mérések figyelembe vételével a detektálási és zajszűrési algoritmusok paramétereinek választása lényegesen egyszerűbbé válik gyakorlati kísérletek kiértékelésében. Diszkusszió A tézis befejező fejezetében tárgyalom a módszerek Élettani Intézetben történő kutatásokban való alkalmazása folyamán felmerült kérdéseket. Ugyanitt mutatom be a módszerek alkalmazásának lehetőségét nagy frekvenciás line-scan képekre is. Ezeken a képeken a spakok más alakzatban jelennek meg a nagyobb sebességű pásztázás miatt, így a nem izotróp formációkat az egy dimenziós à trous transzformációra épülő módszerekkel lehet detektálni. Ugyanitt adok meg egy paraméterszámítási eljárást nagyfrekvenciás képeken regisztrált sparkokra. A kutatás folyamán megvalósított eredmények összefoglalója megtalálható a Tézisfüzetben. Az elemzés gyakorlati megvalósítása folyamán a MATLAB (The MathWorks, Inc., Natick, Massachusetts, United States) programozási környezetet használtam. A munkám folyamán alap algoritmusokat implementáló függvénycsomagokat, interaktív grafikus felülettel rendelkező elemző programokat, illetve automata elemzést biztosító eljárásokat fejlesztettem. Következményeként a fontosabb eljárások egy-egy függvénycsomag részeként felhasználhatóak új feldolgozások gyors előállítására. A módszereket több kutatás keretén belül használtuk az Élettani Intézetében, amint a „A kiértékelési módszerek használata kísérletekben” című szakaszban megadott publikációk tükrözik. Summary Background The main topic of this thesis are computer based methods used by a specific field of research in physiology and biophysics: calcium signaling in muscle cells. As a biological messenger, intracellular calcium plays an important role in muscle excitation-contraction process. Intracellular local calcium concentration changes induce the muscle contraction, these are termed intracellular calcium release events in muscle cells. They have been first observed in 1993 by methods based on fluorescence imaging. In this area measurements are controlled by computers, moreover, evaluation of the results need also computational techniques. Confocal microscopes register signals as one, two or multidimensional images, in consequence measurement interpretation is based on methods used in image and signal processing. Some of the applied image processing methods belong to classical methods, some to special methods established in fluorescent imaging. The biophysical and physiological parameters appear as main features of these events, and are calculated traditionally by numerical methods, notably the input of these calculations are microscope registered data of the detected events. Background of this thesis is an ongoing research activity targeting the study of elementary calcium release events in muscle cells organized at the Department of Physiology, Research Centre for Molecular Medicine, Medical and Health Science Centre, University of Debrecen. Goals The primary goal of the thesis was to adapt well known computer based methods to this field of research, the secondary goal was to develop new methods for the area. My research and developmental activity included the following: a) Analysis of line-scan confocal images based on image and signal processing methods. The images were registered at the Department of Physiology during research studies of elementary calcium release events. The first period of these research programs was characterized by the recording of classical line-scan images (scanning period around 1 ms/line). b) Study of elementary calcium events in skeletal muscle by calculating biophysical parameters needed for statistical processing, first of all by applying known and generally accepted methods. Calculating event characteristic features for cases when no established method exists, like in the case of calcium „ember”-s. c) Study of efficiency and reliability of elementary calcium event detection methods on line scan images. Our intent was to specify guidelines, how to set up algorithm configuration in order to achieve the best results in experimental data analysis. d) Adoption of event detection and parameter calculation methods used for classical line-scans to the analysis of high frequency line scan images. Events on high frequency line scans (scanning period ~ 50 μs/line) appear with a different calcium event kinetics. e) Implementation of a software library and analysis programs for the above mentioned research activities. Methods First the confocal imaging methods related to the thesis are mentioned, next the most used image and signal processing methods are presented. Properties of line scan (main image type used in this thesis, coordinates in space and time) images images are presented also in this chapter with the most important image preprocessing methods (normalization, photobleaching correction). Elementary calcium event detection on confocal images is one of the main topics of the thesis, in consequence the known signal and image processing methods to achieve this goal are presented. Noise handling is a central task when working with line-scan images, so filtering methods are discussed. Calculation of elementary calcium release events characterizing biophysical parameters represents also a practical task of the research, correspondingly the established methods used by the scientific community are enumerated for calcium sparks. A part of the algorithms used in the thesis are built on a discrete wavelet transform, so in addition the Methods chapter presents the à trous or stationary wavelet transform. Previously the transform was first used for image processing by Starck and Mourtagh (1998) in astronomy and von Wegner et al. (2006) for confocal images. As wavelet function the wavelet based in the cubic B-spline was used, notably for the excellent properties in medical and biological image processing (compact support, simple and fast implementation, symmetric scaling and wavelet function, optimal time-frequency localizing properties). Results In this chapter four areas are covered in order to support the goals of the thesis. The first part covers results obtained during the beginning period of the research work by using the classical double threshold algorithm. A photobleaching correction algorithm implementation is presented here also as a preprocessing solution for line scans. Secondly methods for spark parameter calculations are discussed. Afterwards a new method of parameter calculation for elementary calcium release event of type calcium „ember” is presented. Third part of the Results chapter presents the applied implementation of the à trous algorithm in one and two dimensions, used for noise filtering and event detection. A new spike filter built upon the first two, high frequency component wavelet levels is presented. Next the detection of non isotropic events by the one dimensional transform is discussed and an algorithm to detect calcium „ember” events is presented. Finally, the fourth area evaluates the reliability and sensitivity of the à trous wavelet based detection in measurements comparing it to the classical solution. Results of tests performed on simulated images are evaluated. As for creating simulated images a method based on experimental images is also presented (outside methods of generating noise with a known distribution) moreover, methods of creating simulated events are discussed. Probabilities characterizing positive predictive value (PPV) and sensitivity (S) are given for selected parameter values and amplitude of calcium spark events (in relative fluorescence units). We conclude, that wavelet based detection is characterized by better PPV and S values on calcium spark events containing line scans. The wavelet detection method is evaluated in case of prefiltering for spikes also, and achieves better reliability without significant sensitivity loss. Based on the conducted tests, parameter selection for noise filtering and detection algorithms in experiment analysis is straightforward. Discussion Eventually this chapter discusses some aspects revealed by applying the methods in calcium release event experiments at the Department of Physiology. The chapter also presents the analysis of high frequency line-scans by the presented methods. On high frequency line-scans (scanning period around 50 μs/line) calcium sparks appear with a different shape compared to classical line scans (scanning period around 1 ms/line). A method based on the one dimensional à trous transform considering detection of this non isotropic shaped events is presented. Next parameter calculation for high frequency line-scans is discussed, and the calculation of a new parameter characterizing calcium release is mentioned (slope of signal mass). Results of the research are summarised in the Thesis document. To solve the practical tasks related to data analysis we used the MATLAB (The MathWorks, Inc., Natick, Massachusetts, United States) environment. As a result, we developed a function library containing all our basic algorithms for calcium event analysis, in addition two GUI based applications and automatic analysis methods were implemented. The methods were used during various research projects at Department of Physiology, Research Centre for Molecular Medicine, Medical and Health Science Centre, University of Debrecen (Szigeti et al. 2007; Lukács et al. 2008; Almássy et al. 2008; Fodor et al. 2008; Szabó et al. 2010; Vincze et al. 2012).