src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Populariteten av sociala nätverk ökar kraftigt interaktionen mellan människor. Men en stor utmaning återstår - hur man kopplar samman människor som delar liknande intressen. I ett socialt nätverk ligger de flesta människor som delar liknande intressen med en användare i den långa svansen som står för 80 procent av den totala befolkningen. Att söka efter liknande användare genom följande länkar i sociala nätverk har två begränsningar: det är ineffektivt och ofullständigt. Därför är det önskvärt att utforma nya metoder för att hitta likasinnade människor. I detta dokument föreslår vi att man använder kollektiv visdom från folkmassan eller taggnätverken för att lösa problemet. I ett taggnätverk representerar varje nod en tagg som beskrivs med några ord, och vikten av en oriktad kant representerar samtidig förekomst av två taggar. Som sådan beskriver taggnätverket de semantiska relationerna mellan taggarna. För att ansluta till andra användare av liknande intressen via ett taggnätverk använder vi diffusionskärnor på taggnätverket för att mäta likheten mellan par av taggar. Likheten mellan människors intressen mäts på grundval av liknande taggar som de delar. För att rekommendera människor som är lika, hämtar vi topp k-personer som delar de mest liknande taggarna. Jämfört med två grundläggande metoder triadiska stängning och LSI, den föreslagna taggen nätverk metod uppnår 108% respektive 27% relativa förbättringar på BlogCatalog dataset, respektive. | Andra ansluter likasinnade användare med hjälp av taggen nätverk inference REF. | 9,598,274 | Connecting users with similar interests via tag network inference | {'venue': "CIKM '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 303 |
Många vetenskapliga tillämpningar kan struktureras som parallella Task Graphs (PTG), det vill säga grafer av dataparallell uppgifter. Lägga till data-parallelism till en task-parallell applikation ger möjligheter till högre prestanda och skalbarhet, men innebär ytterligare schemaläggning utmaningar. I detta dokument studerar vi offline schemaläggning av flera PTGs på en enda, homogen kluster. Målet är att optimera prestandan utan att äventyra rättvisa mellan PTG. Vi tar hänsyn till omfattningen av tidigare föreslagna schemaläggningsalgoritmer som är tillämpliga på detta problem, både från tillämpad och teoretisk litteratur, och vi föreslår mindre förbättringar när det är möjligt. Vårt huvudsakliga bidrag är en omfattande utvärdering av dessa algoritmer i simulering med hjälp av både syntetiska och verkliga applikationskonfigurationer, med hjälp av två olika mått för prestanda och ett mått för rättvisa. Vi identifierar en handfull algoritmer som ger bra avvägningar när vi överväger alla dessa mätvärden. Den bästa algoritmen övergripande är en som strukturerar schemat som en sekvens av faser av ökande varaktighet baserat på en makepan garanti som produceras av en approximation algoritm. | En studie av algoritmer för att schemalägga flera PTGs på en enda homogen kluster utförs av Casanova et al. Hoppa över det. | 173,479 | On cluster resource allocation for multiple parallel task graphs | {'venue': 'Journal of Parallel and Distributed Computing', 'journal': 'Journal of Parallel and Distributed Computing', 'mag_field_of_study': ['Computer Science']} | 304 |
Sammanfattning När det gäller komplexa system är informationen mycket ofta fragmenterad mellan många olika modeller som uttrycks inom en mängd olika (modellering) språk. För att ge relevant information på lämpligt sätt till olika typer av intressenter måste (delar av) sådana modeller kombineras och eventuellt förnyas genom att man fokuserar på frågor av särskilt intresse för dem. Det behövs därför mekanismer för att definiera och beräkna vyer över modeller. Flera strategier har redan föreslagits för att ge (semi)automatiskt stöd för att hantera sådana modeller. I detta dokument ges en detaljerad översikt över den aktuella tekniska utvecklingen på detta område. För att uppnå detta förlitade vi oss på våra egna erfarenheter av att utforma och tillämpa sådana lösningar för att kunna göra en litteraturgenomgång i detta ämne. Som ett resultat av detta diskuterar vi de viktigaste möjligheterna i befintliga strategier och föreslår en motsvarande forskningsagenda. Vi bidrar särskilt med en funktionsmodell som beskriver vad vi anser vara de viktigaste egenskaperna hos stödet för synpunkter på modeller. Vi förväntar oss att detta arbete kommer att vara till hjälp för både nuvarande och potentiella framtida användare och utvecklare av modellvy tekniker, liksom för alla personer som i allmänhet är intresserade av modellbaserad programvara och systemteknik. | Först nyligen dök det upp en översyn av den senaste tekniken i modellering av synpunkter REF. | 23,658,100 | A feature-based survey of model view approaches | {'venue': 'Software & Systems Modeling', 'journal': 'Software & Systems Modeling', 'mag_field_of_study': ['Computer Science']} | 305 |
Under det senaste årtiondet har många tekniker och verktyg för att upptäcka mjukvarukloner föreslagits. I detta dokument ger vi en kvalitativ jämförelse och utvärdering av den nuvarande toppmoderna tekniken inom klondetektionsteknik och -verktyg, och organiserar den stora mängden information i en sammanhängande konceptuell ram. Vi börjar med bakgrundskoncept, en generisk klondetektionsprocess och en övergripande taxonomi av aktuella tekniker och verktyg. Vi klassificerar, jämför och utvärderar sedan teknikerna och verktygen i två olika dimensioner. För det första klassificerar och jämför vi metoder baserade på ett antal aspekter, som var och en har en uppsättning (eventuellt överlappande) attribut. För det andra utvärderar vi kvalitativt de klassificerade teknikerna och verktygen med avseende på taxonomi för redigeringsscenarier som utformats för att modellera skapandet av kloner av typ 1, typ 2, typ 3 och typ 4. Slutligen ger vi exempel på hur man kan använda resultaten av denna studie för att välja det lämpligaste klon detektionsverktyget eller tekniken i samband med en viss uppsättning mål och begränsningar. De viktigaste bidragen i detta dokument är: 1) ett schema för klassificering av klon detektion tekniker och verktyg och en klassificering av nuvarande klon detektorer baserat på detta schema, och 2) en taxonomi av redigeringsscenarier som producerar olika klontyper och en kvalitativ utvärdering av nuvarande klon detektorer baserat på denna taxonomi. | För en komplett uppsättning se vår senaste undersökning av state of the art REF. | 17,181,849 | Comparison and Evaluation of Code Clone Detection Techniques and Tools: A Qualitative Approach | {'venue': 'SCIENCE OF COMPUTER PROGRAMMING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 306 |
Sammanfattning Papperet presenterar ett system för automatisk, georegistrerad, i realtid 3D rekonstruktion från video av urbana scener. Systemet samlar in videoströmmar samt GPS- och tröghetsmätningar för att placera de rekonstruerade modellerna i georegistrerade koordinater. Den är utformad med nuvarande toppmoderna realtidsmoduler för alla bearbetningssteg. Det använder råvarugrafik hårdvara och standard CPU:er för att uppnå prestanda i realtid. Vi presenterar de viktigaste övervägandena vid utformningen av systemet och stegen i bearbetningsledningen. Vårt system utökar befintliga algoritmer för att möta den robusthet och variabilitet som krävs för att operera ut ur labbet. För att ta hänsyn till det stora dynamiska utbudet av utomhusvideor uppskattar processledningen globala kameraförändringar i funktionsspårningsstadiet och kompenserar effektivt för dessa i stereouppskattning utan att påverka realtidsprestandan. Den noggrannhet som krävs för många tillämpningar uppnås med en tvåstegs stereorekonstruktionsprocess som utnyttjar redundansen över ramar. Vi visar resultat på verkliga videosekvenser med hundratusentals bilder. | På liknande sätt, Pollefeys et al. REF bygga urban scen modeller av geo-registrerade videoramar. | 2,514,257 | Detailed Real-Time Urban 3D Reconstruction from Video | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 307 |
Abstract-This paper studerar den servicetid som krävs för att överföra ett paket i ett opportunistiskt spektrum tillträde scenario, där en olicensierad sekundäranvändare (SU) överför ett paket med det radiospektrum som licensieras till en primär användare (PU). Med tanke på ett kognitivt radionät, antas det att under överföringsperioden av en SU flera avbrott från PU kan uppstå, vilket ökar den tid som behövs för att överföra ett paket. Om SU: s paketlängd följer en geometrisk fördelning, börjar vi med att härleda sannolikheten för att en SU sänder sitt paket när k > 0 perioder av PU: s inaktivitet observeras. Som det viktigaste bidraget i detta dokument, härleder vi den karakteristiska funktionen av servicetiden, som ytterligare används för att approximera dess fördelning i en realtidsuppskattning process. Den föreslagna metoden är oberoende av SU:s trafiktillstånd, dvs. både mättad och icke-mättad SU:s trafiksystem antas. Vår analys ger en lägre gräns för servicetiden för SUs, vilket är användbart för att bestämma den maximala genomströmning som uppnås av sekundärnätet. Simuleringsresultat används för att validera analysen, som bekräftar den föreslagna metodens noggrannhet. | På senare tid föreslog REF en teoretisk karakterisering av fördelningen av servicetiden när både mättade och omättade trafikförhållanden inträffar, och paket med varierande längd överförs av SU. | 13,655,066 | Characterization of the Opportunistic Service Time in Cognitive Radio Networks | {'venue': 'IEEE Transactions on Cognitive Communications and Networking', 'journal': 'IEEE Transactions on Cognitive Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 308 |
Abstract-Intrusion upptäckt har väckt ett stort intresse från forskare och industrier. Efter många års forskning står samhället fortfarande inför problemet att bygga tillförlitliga och effektiva IDS som kan hantera stora mängder data, med förändrade mönster i realtidssituationer. Det arbete som presenteras i detta manuskript klassificerar intrångsdetekteringssystem (IDS). Dessutom presenteras en taxonomi och kartläggning av grunda och djupa nätverk intrångsdetekteringssystem baserat på tidigare och nuvarande arbeten. Denna taxonomi och undersökning granskar maskininlärning tekniker och deras prestanda i att upptäcka anomalier. Val av funktioner som påverkar effektiviteten av maskininlärning (ML) IDS diskuteras för att förklara rollen av funktionsval i klassificerings- och utbildningsfasen av ML IDS. Slutligen presenteras en diskussion om de falska och verkligt positiva larmfrekvenserna för att hjälpa forskare att modellera tillförlitliga och effektiva maskininlärningssystem baserade på intrångsdetektering. | Hodo m.fl. REF granskade maskininlärningsmetoder och deras prestanda när det gäller att upptäcka anomalier. | 11,381,530 | Shallow and Deep Networks Intrusion Detection System: A Taxonomy and Survey | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 309 |
I detta papper illustrerar vi hur man utför både visuell objektspårning och halvövervakade videoobjekt segmentering, i realtid, med en enda enkel metod. Vår metod, dubbade SiamMask, förbättrar den offline träning förfarande populära fullt-konvolutionella Siamese metoder för objektspårning genom att öka sin förlust med en binär segmentering uppgift. När SiamMask har utbildats förlitar han sig enbart på en enda banderoll och arbetar på nätet, producerar klass-agnostiska objektsegmenteringsmasker och roterar banderoller vid 55 bilder per sekund. Trots dess enkelhet, mångsidighet och snabba hastighet ger vår strategi oss möjlighet att etablera en ny toppmodern bland realtids trackers på VOT-2018, samtidigt som vi visar konkurrenskraftiga prestanda och den bästa hastigheten för semiövervakade video objekt segmentering uppgift på DAVIS-2016 och DAVIS-2017. Projektets webbplats är http://www. Robotar.ox.ac.uk/ tillqwang/SiamMask. | Dessutom kombinerar SiamMask REF den fullt-konvolutionella Siamese tracker med en binär segmenteringshuvud för korrekt spårning. | 54,475,412 | Fast Online Object Tracking and Segmentation: A Unifying Approach | {'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 310 |
Abstract-Eftersom servicekraven för nätverksapplikationer skiftar från hög genomströmning till hög mediekvalitet, interaktivitet och lyhördhet har definitionen av QoE (Kvalitet av erfarenhet) blivit flerdimensionell. Även om det kanske inte är svårt att mäta individuella dimensioner av QoE, är det fortfarande en öppen fråga hur man fångar användarnas övergripande uppfattningar när de använder nätverksapplikationer. I detta dokument föreslår vi ett ramverk som heter OneClick för att fånga användarnas uppfattningar när de använder nätverksapplikationer. Ramverket kräver bara ett ämne för att klicka på en dedikerad nyckel när han/hon känner sig missnöjd med kvaliteten på den applikation som används. OneClick är särskilt effektivt eftersom det är intuitivt, lätt, effektivt, tidsberoende och applikationsoberoende. Vi använder två objektiva kvalitetsbedömningsmetoder, PESQ och VQM, för att validera OneClicks förmåga att utvärdera kvaliteten på ljud- och videoklipp. För att visa den föreslagna ramens effektivitet och effektivitet i bedömningen av användarupplevelser, implementerar vi den på två applikationer, en för direktmeddelanden program, och den andra för firstperson shooter spel. Ett snabbt genomförande av den föreslagna ramen presenteras också. | I REF föreslås en ram för att fånga användarnas uppfattning medan de använder nätverkstillämpningar. | 10,545,189 | OneClick: A Framework for Measuring Network Quality of Experience | {'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']} | 311 |
Det är mycket viktigt för bearbetning av kinesiska språket med hjälp av en effektiv inmatningsmetod motor (IME), varav pinyinto-kinesiska (PTC) konvertering är kärnan. Samtidigt, även om stavfel är oundvikliga under användar pinyin inmatning, befintliga IME ägnade föga uppmärksamhet åt sådana stora olägenheter. I detta dokument, motiverat av en viktig likvärdighet av två avkodningsalgoritmer, föreslår vi en gemensam grafmodell för att globalt optimera PTC och typo korrigering för IME. Utvärderingsresultaten visar att den föreslagna metoden överträffar både befintliga akademiska och kommersiella IME. | Dessutom införde REF en modell för felkorrigering av IME-fel. | 16,217,436 | A Joint Graph Model for Pinyin-to-Chinese Conversion with Typo Correction | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 312 |
Abstrakt. Hur kan ett RFID-system (radiofrekvensidentifieringsenheter) visa att två eller flera RFID-taggar finns på samma plats? Tidigare forskare har föreslagit yoking-proof och gruppering-proof tekniker för att ta itu med detta problem - och när dessa visade sig vara sårbara för replay attacker, föreslogs en ny existens-proof teknik. Vi kritiserar denna klass av existens-bevis och visar att det har tre problem: a) ett rastillstånd när flera läsare är närvarande; b) ett rastillstånd när flera taggar finns; och c) ett problem som bestämmer antalet taggar. Vi presenterar två nya bevistekniker, ett säkert tidsstämpelbevis (sects-proof) och ett tidsstämpelkedjesäkert (kedjesäkert) som undviker att återspela attacker och lösa problem i tidigare föreslagna tekniker. | I REF tar författarna upp förekomsten av rasförhållanden när flera läsare/taggar presenteras eller antalet deltagande taggar är okänt. | 12,071,528 | Coexistence Proof Using Chain of Timestamps for Multiple RFID Tags ∗ | {'venue': 'APWeb/WAIM Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 313 |
Abstracl-Stora skalan blerarklcal cacbe. för web contell! har distribuerats brett J.q lUI försök att minska leverans debYS aDd bandwldtb konsumtion och al80 för att förbättra tbe skalbarheten av coutent dilll emmaUon genom den världsomspännande webben. Oavsett av tbe speclOc ersättningsalgoritm som används I varje kadle, en de faeto cbaraeterIsUc av samtida hterardllcal cadles II att en träff för ett dokument på en I-nivå cache Ipds till varje lng av dokllmentet I all lntermined.iate cachs Oevels 1-1,... 11) på vägen mot blad varje made tbat mottog den ursprungliga begäran denna tidning presenterar olika algoritmer som reviderar denna stllldard beteende och försöker vara mer seledive I att välja caches som får lagra en lokal kopia av det begärda dokumentet. Som dessa algoritmer. fungera oberoende av den faktiska ersättningsalgoritm som körs I varje IDdlvldual cacbe, de hänvisas till al mas Ilgo,.JtJtm$. Tre nya metaalgoritmer föreslås och jämförs mot tbe de facto en och en nyligen föreslagen Doe med hjälp av syntetiska och spår-drlven amuIa!fon •• Det bästa av den nya metaalgoritmen. Att leda till förbättrade prestanda och simnlaterade scenarier, särskilt under låg tillgång på lagring. Tbe senare observallon gör tbe presenteras meta a1goritbm. särskilt gynnsam för handenOng ofJarge dataobjekt lacb som lagrade musikfiler eller kort video ellp •. Addilionally, en riklig ioad balanseringsalgoritm som är baserad på toncept av metaalgoritmer är föreslagna add utvärderas. Algoritmen är sbown för att kunna provide för aD effektiv balandDg av belastning således lätt att ta itu med den senaste "filterlng effekt" i blerarchleal web cachs. | LCD föreslås i REF för webbcachelagring. | 344,012 | Meta algorithms for hierarchical Web caches | {'venue': 'IEEE International Conference on Performance, Computing, and Communications, 2004', 'journal': 'IEEE International Conference on Performance, Computing, and Communications, 2004', 'mag_field_of_study': ['Computer Science']} | 314 |
Vatten är källan till allt, så man kan säga att utan en hållbar utveckling av vattenresurserna kan det inte finnas någon hållbar utveckling av människor. Under de senaste åren har plötsliga vattenföroreningsolyckor inträffat ofta. Optimering av katastrofplan är nyckeln till att hantera olyckor. Icke desto mindre har det icke-linjära förhållandet mellan olika indikatorer och beredskapsplaner i hög grad hindrat forskare från att göra rimliga bedömningar. Därför föreslås en integrerad bedömningsmetod genom att införa en förbättrad teknik för orderpreferens genom likhet med ideal lösning, Shannon entropy och en samordnad utvecklingsgrad modell för att utvärdera beredskapsplaner. Shannon-entropimetoden användes för att analysera olika typer av indexvärden. TOPSIS används för att beräkna den relativa närheten till den idealiska lösningen. Den samordnade modellen för utvecklingsgrad tillämpas för att uttrycka förhållandet mellan krisplanens relativa närhet och inhomogenitet. Denna metod testas i beslutsstödsystemet för Middle Route Construction and Administration Bureau, Kina. Genom att beakta indikatorernas olika karaktär kan den integrerade bedömningsmetoden så småningom bevisas vara en mycket realistisk metod för bedömning av krisplaner. Fördelarna med denna metod är mer framträdande när det finns fler indikatorer på utvärderingsobjektet och typen av varje indikator är ganska olika. Sammanfattningsvis kan denna integrerade bedömningsmetod ge en riktad referens eller vägledning för beslutsfattare i nödsituationer. | Lång et al. I REF föreslogs en integrerad bedömningsmetod genom att man införlivade en förbättrad teknik för orderpreferens genom likhet med ideala lösningar, Shannon entropi och en samordnad modell för utvecklingsgrad för att utvärdera beredskapsplaner. | 143,429,411 | Integrated Assessment Method of Emergency Plan for Sudden Water Pollution Accidents Based on Improved TOPSIS, Shannon Entropy and a Coordinated Development Degree Model | {'venue': None, 'journal': 'Sustainability', 'mag_field_of_study': ['Economics']} | 315 |
Abstrakt. Vi presenterar algoritmer för att hitta stora grafmatchningar i den strömmande modellen. I denna modell, tillämplig vid hantering av massiva grafer, kanter strömmas in i någon godtycklig ordning snarare än bor i slumpmässigt tillgängligt minne. För på > 0, uppnår vi en 1 1+ på approximation för maximal kardinalitet matchning och en 1 2+ på approximation till maximal viktad matchning. Båda algoritmerna använder ett konstant antal passer och Õ(---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | När man överväger multi-pass algoritmer, REF gav en (1 - ε) - approximation algoritm med hjälp av | 15,737,329 | Finding graph matchings in data streams | {'venue': 'APPROX-RANDOM', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 316 |
AIAA:s tekniska kommitté för modellering och simulering har under flera år arbetat med att utveckla en standard genom vilken den information som behövs för att utveckla fysikbaserade modeller av flygplan kan specificeras. Syftet med denna standard är att tillhandahålla en väldefinierad uppsättning information, definitioner, datatabeller och axelsystem så att samarbetsvilliga organisationer kan överföra en modell från en simuleringsanläggning till en annan med maximal effektivitet. | American Institute of Aeronautics and Astronautics (AIAA) Modeling and Simulation Technical Committee har föreslagit en standardreferens för utbyte av simuleringsmodelleringsdata för ett fordon eller ett luftfartyg mellan olika simuleringsanläggningar. | 62,723,172 | FLIGHT DYNAMIC MODEL EXCHANGE USING XML | {'venue': 'AIAA Modeling and Simulation Technologies Conference and Exhibit', 'journal': 'AIAA Modeling and Simulation Technologies Conference and Exhibit', 'mag_field_of_study': ['Computer Science']} | 317 |
ABSTRACT Kvantifiering av effekten av vetenskapliga uppsatser objektivt är avgörande för utvärdering av forskningsresultat, som därefter påverkar institutions- och landsrankningar, anslag till forskning, akademisk rekrytering och nationella/internationella vetenskapliga prioriteringar. Även om de flesta av bedömningssystemen baserade på publikationsciteringar potentiellt kan manipuleras genom negativa citeringar, undersöker vi i detta dokument intressekonfliktrelationerna och upptäcker negativa citeringar och försvagar därefter den tillhörande citeringsstyrkan. Positiv och negativ COI-distinguished objektive rank algoritm (PANDORA) har utvecklats, som fångar den positiva och negativa COI, tillsammans med den positiva och negativa misstänkta COI relationer. För att lindra det inflytande som orsakas av negativt COI-förhållande, samarbetstider, samarbetstid, citeringstider och citeringstid används för att bestämma citeringsstyrkan, medan vi för positivt COI-förhållande ser det som ett normalt citeringsförhållande. Dessutom beräknar vi effekten av vetenskapliga uppsatser av PageRank och HITS algoritmer, baserade på en kreditalgoritm som används för att bedöma institutens effekter på ett rättvist och objektivt sätt. Experiment genomförs på publikationsdata från American Physical Society data set, och resultaten visar att vår metod avsevärt överträffar de nuvarande lösningarna i rekommendationsintensitet av lista R på top-K och Spearmans rank korrelationskoefficient på top-K. INDEX TERMS Intressekonflikter, negativa citeringar, impact evaluation. | Bai och Al. REF undersökte först intressekonflikten (COI) för att upptäcka negativa citeringar och försvaga den tillhörande citeringsstyrkan. | 6,340,052 | The Role of Positive and Negative Citations in Scientific Evaluation | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 318 |
Abstract-Det finns en enorm ökning av intresset för tidsserier metoder och tekniker. Praktiskt taget varje bit av information som samlas in från mänskliga, naturliga och biologiska processer är mottaglig för förändringar över tid, och studien av hur dessa förändringar sker är en central fråga för att till fullo förstå sådana processer. Bland alla tidsseriebrytningar är klassificeringen sannolikt den mest framträdande. I tidsserier klassificering finns en betydande kropp av empirisk forskning som indikerar att k-nearest granne regel i tidsdomänen är mycket effektiv. Vissa tidsseriefunktioner är dock inte lätta att identifiera på detta område och en förändring i representationen kan avslöja några betydande och okända funktioner. I detta arbete föreslår vi användning av upprepningsytor som representationsdomän för tidsserieklassificering. Vårt tillvägagångssätt mäter likheten mellan återkommande tomter med Campana-Keogh (CK-1) avstånd, en Kolmogorov komplexitetsbaserade avstånd som använder videokomprimering algoritmer för att uppskatta bild likhet. Vi visar att återkommande tomter allierade med CK-1 avstånd leder till betydande förbättringar i noggrannhetshastigheter jämfört med Euclidean avstånd och Dynamic Time Warping i flera datamängder. Även om återfallsytor inte kan ge den bästa noggrannheten för alla datamängder, visar vi att vi i förväg kan förutsäga att vår metod kommer att överträffa tidsrepresentationen med Euclidean och Dynamic Time Warping avstånd. | Silva och kollegor föreslog användning av RP som representationsdomän för tidsserieklassificering REF. | 6,008,338 | Time Series Classification Using Compression Distance of Recurrence Plots | {'venue': '2013 IEEE 13th International Conference on Data Mining', 'journal': '2013 IEEE 13th International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']} | 319 |
Kapaciteten hos ett neuralt nätverk för att absorbera information begränsas av dess antal parametrar. Villkorlig beräkning, där delar av nätet är aktiva per exempel, har i teorin föreslagits som ett sätt att dramatiskt öka modellkapaciteten utan en proportionell ökning av beräkningen. I praktiken finns det dock betydande utmaningar när det gäller algoritmer och prestanda. I detta arbete tar vi itu med dessa utmaningar och slutligen förverkliga löftet om villkorlig beräkning, uppnå mer än 1000x förbättringar i modellkapacitet med endast mindre förluster i beräkningseffektivitet på moderna GPU-kluster. Vi introducerar en Sparsely-Gated Mixing-of-Experts lager (MoE), bestående av upp till tusentals feed-forward undernätverk. Ett utbildat gating nätverk bestämmer en gles kombination av dessa experter att använda för varje exempel. Vi tillämpar MoE på uppgifter som språkmodellering och maskinöversättning, där modellkapacitet är avgörande för att absorbera de stora mängder kunskap som finns i träningskorporan. Vi presenterar modellarkitekturer där en MoE med upp till 137 miljarder parametrar appliceras konvolutionellt mellan staplade LSTM-lager. På stora språk modellering och maskinöversättning riktmärken, dessa modeller uppnå betydligt bättre resultat än state-of-the-art till lägre beräkningskostnader. | REF föreslog också att man skulle använda en modell för språkmodellering. | 12,462,234 | Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 321 |
Ordinslag gör det möjligt för naturliga språkbehandlingssystem att dela statistisk information över relaterade ord. Dessa inbäddningar är vanligtvis baserade på fördelningsstatistik, vilket gör det svårt för dem att generalisera till sällsynta eller osynliga ord. Vi föreslår att förbättra ordet inbäddningar genom att införliva morfologisk information, fånga delade underord funktioner. Till skillnad från tidigare verk som konstruerar ord inbäddade direkt från morfemer, kombinerar vi morfologisk och fördelningsmässig information i en enhetlig probabilistisk ram, där ordet inbäddning är en latent variabel. Den morfologiska informationen ger en tidigare fördelning på latent ordet inbäddningar, som i sin tur tillstånd en sannolikhet funktion över en observerad corpus. Detta tillvägagångssätt leder till förbättringar när det gäller bedömningar av inneboende likheter i ord och även när det gäller del-av-tal-märkning i efterföljande led. | REF införlivar morfologisk information som en tidigare distribution för att förbättra ordinbäddningar. | 1,524,421 | Morphological Priors for Probabilistic Neural Word Embeddings | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 322 |
Traditionella tillvägagångssätt för uppgiften ACE händelse extraktion beror vanligtvis på manuellt kommenterade data, som ofta är mödosamt att skapa och begränsad i storlek. Förutom svårigheten med själva händelseextraheringen hindrar därför otillräckliga utbildningsdata också inlärningsprocessen. För att främja händelseextrahering föreslår vi först en modell för händelseextrahering för att övervinna rollöverlappningsproblemet genom att skilja argumentet förutsägelse i termer av roller. För att ta itu med problemet med otillräckliga utbildningsdata föreslår vi dessutom en metod för att automatiskt generera märkta data genom att redigera prototyper och skärma ut genererade prover genom att rangordna kvaliteten. Experiment på ACE2005-datasetet visar att vår utvinningsmodell kan överträffa de flesta befintliga extraktionsmetoder. Dessutom uppvisar införlivandet av vår generationsmetod ytterligare betydande förbättringar. Det får nya state-of-the-art resultat om händelsen extraktion uppgift, inklusive att driva F1 poäng trigger klassificering till 81,1%, och F1 poäng argument klassificering till 58,9%. | REF föreslår en metod för att automatiskt generera märkta data genom att redigera prototyper och skärma ut genererade prover genom att rangordna kvaliteten. | 196,178,503 | Exploring Pre-trained Language Models for Event Extraction and Generation | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 323 |
Abstract-Medan FPGA-baserade hårdvaruacceleratorer har upprepade gånger visat sig vara ett livskraftigt alternativ, är deras programmerbarhet fortfarande ett stort hinder för deras bredare acceptans av programkod utvecklare. Dessa plattformar är vanligtvis programmerade i en låg nivå maskinvarubeskrivningsspråk, en färdighet som inte är vanlig bland programutvecklare och en process som ofta är tråkig och felbenägen. Programmering av FPGA från språk på hög nivå skulle underlätta integrationen med programvarusystem och öppna upp hårdvaruacceleratorer för ett bredare spektrum av applikationsutvecklare. I detta papper presenterar vi en stor översyn för Riverside Optimizing Compiler för konfigurerbara kretsar (ROCCC) utformad för att skapa hårdvaruacceleratorer från C-program. Nya tillägg till ROCCC inkluderar (1) intuitiv modulär nedifrån-och-upp-design av kretsar från C, och (2) separation av kodgenerering från specifika FPGA-plattformar. De tillägg vi gör inte införa någon ny syntax till C-koden och upprätthålla de höga nivå optimeringar från ROCCC-systemet som genererar effektiv kod. Modulkoden vi stöder fungerar identiskt som programvara eller hårdvara. Dessutom möjliggör vi användarkontroll av maskinvaruoptimering såsom systolisk arraygenerering och temporal gemensam subexpression eliminering. Vi utvärderar kvaliteten på ROCCC 2.0-verktyget genom att jämföra det med handskriven VHDL-kod. Vi visar jämförbara klockfrekvenser och 18% högre genomströmning. Produktivitetsfördelarna med ROCCC 2.0 utvärderas med hjälp av mätvärdena för rader av kod och programmeringstid som visar i genomsnitt 15x förbättring jämfört med handskriven VHDL. | Mest specifikt, Riverside Optimizing Compiler för omkonfigurerbara kretsar (ROCCC) 2.0 REF stöder en delmängd av C och producerar VHDL hårdvaruacceleratorer. | 10,601,863 | Designing Modular Hardware Accelerators in C with ROCCC 2.0 | {'venue': '2010 18th IEEE Annual International Symposium on Field-Programmable Custom Computing Machines', 'journal': '2010 18th IEEE Annual International Symposium on Field-Programmable Custom Computing Machines', 'mag_field_of_study': ['Computer Science']} | 324 |
Abstrakt. Vi presenterar en övergripande strategi för ontologiutvärdering och validering, som har blivit ett avgörande problem för utvecklingen av semantisk teknik. Befintliga utvärderingsmetoder integreras i en enda ram med hjälp av en formell modell. Denna modell består för det första av en metaontologi kallad O 2, som karakteriserar ontologier som semiotiska objekt. Baserat på O 2 och en analys av befintliga metoder, identifierar vi tre huvudtyper av åtgärder för utvärdering: strukturella åtgärder, som är typiska för ontologier som representeras som diagram; funktionella åtgärder, som är relaterade till den avsedda användningen av en ontologi och dess komponenter; och användbarhet-profilering åtgärder, som är beroende av nivån på notation av den beaktade ontologin. Metaontologin kompletteras sedan med en ontologi av ontologivalidering kallad oQual, som ger möjlighet att utforma den bästa uppsättningen kriterier för att välja en ontologi över andra inom ramen för ett givet projekt. Slutligen ger vi ett litet exempel på hur man kan tillämpa oQual-härledda kriterier på ett valideringsfall. | I det arbete som föreslås av REF definieras vissa åtgärder för att bedöma en ontologi, och dessa åtgärder utvärderas med hjälp av en metaontologi mot vilken ontologin under validering jämförs. | 1,833,696 | Modelling Ontology Evaluation and Validation | {'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 325 |
Sammanfattning av denna webbsida: Elförbrukning på kort sikt för enskilda hushåll är ett viktigt och utmanande ämne inom AI-förstärkt energibesparing, smart nätplanering, hållbar energianvändning och elmarknadssystemdesign. På grund av variationen i varje hushåll personliga aktiviteter, svårigheter finns för traditionella metoder, såsom auto-regressiva rörliga genomsnittliga modeller, maskininlärningsmetoder och icke-djupa neurala nätverk, för att ge exakt förutsägelse för enskilda hushåll elförbrukning. Nya arbeten visar att det långsiktiga minnet (LSTM) neurala nätverket överträffar de flesta av dessa traditionella metoder för energiförbrukning prognos problem. Trots detta kvarstår två forskningsluckor som olösta problem i litteraturen. För det första når inte exaktheten i förutsägelserna den praktiska nivån för verkliga industriella tillämpningar. För det andra fungerar de flesta befintliga arbeten bara på ett steg prognos problemet; prognostiden är för kort för praktisk användning. I denna studie, en hybrid djupt lärande neurala nätverk ram som kombinerar konvolutionella neurala nätverk (CNN) med LSTM föreslås för att ytterligare förbättra förutsägelsen noggrannhet. Den ursprungliga kortsiktiga prognosstrategin utvidgas till en flerstegsstrategi för att införa mer svarstid för elmarknadens budgivning. Fem verkliga hushålls energiförbrukning data studeras, den föreslagna hybrid djupinlärning neurala nätverket överträffar de flesta av de befintliga tillvägagångssätt, inklusive auto-regressiv integrerad glidande medelvärde (ARIMA) modell, persistent modell, stödja vektor regression (SVR) och LSTM ensam. Dessutom visar vi en k-steg effektförbrukning prognos strategi för att främja den föreslagna ramen för verkliga användning av applikationer. | Yan och al. REF utformade en hybrid djupinlärning metod som integrerar konvolutionella neurala nätverk (CNN) och långtidsminne (LSTM) neurala nätverk för att prognostisera effektförbrukning värden i var femte minut. | 115,973,916 | Multi-Step Short-Term Power Consumption Forecasting with a Hybrid Deep Learning Strategy | {'venue': None, 'journal': 'Energies', 'mag_field_of_study': ['Engineering']} | 326 |
I många samverkande system kan användare utlösa utförandet av kommandon i en process som ägs av en annan användare. Om inte åtkomsträttigheterna för sådana processer är begränsade, kan alla användare i samarbetet få tillgång till en annans privata filer; köra program för en annan användares räkning; eller läsa offentliga systemfiler, såsom lösenordsfilen, på en annan användares maskin. Vissa ansökningar kräver dock begränsad delning av privata filer, så det kan vara önskvärt att bevilja tillgång till dessa filer för ett visst ändamål. Role-based access control (RBAC) modeller kan användas för att begränsa åtkomsträttigheter för processer, men nuvarande implementeringar gör det inte möjligt för användare att flexibelt kontrollera åtkomsträttigheter för en process i körtid. Vi definierar en modell för diskretionär åtkomstkontroll som gör det möjligt för uppdragsgivare att flexibelt kontrollera tillträdesrätterna i en samarbetsprocess. Vi specificerar sedan de krav på RBAC-modeller som krävs för att genomföra denna diskretionära tillträdeskontrollmodell. | Jaeger m.fl. REF innehåller grundläggande krav på rollbaserad åtkomstkontroll inom samarbetssystem. | 11,078,950 | Requirements of role-based access control for collaborative systems | {'venue': "RBAC '95", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Business']} | 327 |
Heterogena cellulära nätverk (HCN) växer fram som en lovande kandidat till femte generationens (5G) mobilnät. Med basstationer (BS) av små celler som är tätt utplacerade har den kostnadseffektiva, flexibla och gröna backhaul-lösningen blivit en av de mest brådskande och kritiska utmaningarna. Med stora mängder spektrum tillgängligt, trådlösa backhaul i millimetervågen (mmWave) bandet kan ge överföringshastigheter på flera gigabits per sekund. Den mmWave backhaul använder strålformning för att uppnå riktad överföring, och samtidiga överföringar under låg interlink interferens kan aktiveras för att förbättra nätverkskapaciteten. För att uppnå en energieffektiv lösning för mmWave backhauling, vi först formulera problemet med att minimera energiförbrukningen via samtidig överföring schemaläggning och effektstyrning till ett blandat heltal ickelinjärt program (MINLP). Därefter utvecklar vi ett energieffektivt och praktiskt mmWave backhauling system, som består av den maximala oberoende uppsättningen (MIS)-baserade schemaläggningsalgoritm och effektstyrningsalgoritm. Vi analyserar också teoretiskt villkoren för att vårt system ska minska energiförbrukningen, samt valet av interferenströskel. Genom omfattande simuleringar under olika trafikmönster och systemparametrar demonstrerar vi vårt systems överlägsna prestanda när det gäller energieffektivitet och analyserar valet av interferenströskel under olika trafikbelastningar, BS-distributioner och maximal överföringseffekt. | Niu m.fl. I Ref föreslogs ett energieffektivt schemaläggningssystem för mmWave backhaul-nätet, som utnyttjar samtidiga sändningar för att uppnå högre energieffektivitet. | 3,590,963 | Energy-Efficient Scheduling for mmWave Backhauling of Small Cells in Heterogeneous Cellular Networks | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 328 |
Abstract-Locating innehåll i decentraliserade peer-to-peer-system är ett utmanande problem. Gnutella, en populär fildelning ansökan, förlitar sig på översvämningar frågor till alla kamrater. Även om översvämningar är enkla och robusta är de inte skalbara. I detta dokument undersöker vi hur man kan behålla enkelheten i Gnutella, samtidigt som man tar itu med dess inneboende svaghet: skalbarhet. Vi föreslår en lösning för innehållsplacering där kamrater löst organiserar sig i en intressebaserad struktur ovanpå det befintliga Gnutella-nätverket. Vår strategi utnyttjar en enkel, men ändå kraftfull princip som kallas intressebaserad lokalitet, vilket antyder att om en kamrat har ett visst innehåll som man är intresserad av, är det mycket troligt att den kommer att ha andra saker som man också är intresserad av. När vi använder vår algoritm, som kallas räntebaserade genvägar, kan en betydande mängd översvämningar undvikas, vilket gör Gnutella till en mer konkurrenskraftig lösning. Dessutom är genvägar modulära och kan användas för att förbättra prestandan hos andra mekanismer för innehållsplacering, inklusive distribuerade hashtabeller. Vi demonstrerar förekomsten av intressebaserad lokalitet i fem olika spår av innehållsdistributionstillämpningar, varav två är spår av populära fildelningstillämpningar från peer-to-peer. Simuleringsresultat visar att intressebaserade genvägar ofta löser frågor snabbt i en peer-to-peer hop, samtidigt som den totala belastningen i systemet minskas med en faktor på 3 till 7. | På liknande sätt, Sripanidkulchai et al. REF använde intressebaserad plats för att organisera noder i räntebaserad struktur, genom vilken en betydande mängd översvämningar på Gnutella-liknande system kan undvikas. | 277,780 | Efficient content location using interest-based locality in peer-to-peer systems | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 329 |
Insektsbeteende är ett viktigt forskningsämne inom växtskydd. För att studera insekters beteende korrekt är det nödvändigt att observera och registrera deras flygbana kvantitativt och exakt i tre dimensioner (3D). Målet med denna forskning var att analysera ramar som extraherats från videor med hjälp av Kernelized Correlation Filters (KCF) och Bakgrund Subtraktion (BS) (KCF-BS) för att rita 3D bana av kål fjäril (P. rapae). Med tanke på den experimentella miljön med en vindtunnel utformades och tillämpades i denna studie ett system för att fånga upp binokulära visionsinsekter. KCF-BS algoritmen användes för att spåra fjärilen i videoramar och få koordinater för målet centroid i två videor. Insektsbeteende har blivit en viktig forskningsinriktning inom växtskyddsområdet 1. Beteendeforskning kan informera metoder för biologisk kontroll 2,3, biologisk modell konstruktion 4,5 och växt-insekt interaktioner 6, 7. För att noggrant studera flygande insekters beteende är det nödvändigt att observera och registrera deras flygbana kvantitativt och exakt i tre dimensioner (3D). Traditionella metoder för att upptäcka insekters beteende beror främst på direkta och manuella observationer, som kompliceras av godtyckliga kvalifikationer, slöseri med mänskliga resurser och låg effektivitet 8. Den senaste tidens utveckling av datorseendet har stimulerat tillämpningen av dessa tekniker på insektsspårning [9] [10] [11]. Straw m.fl. 12 använde tre kameror för att tredimensionellt spåra flygande djur och kan också spåra flugor och fåglar, men användningen av tre kameror ökade svårigheten att matcha och mängden 3D-koordinatberäkningar. Okubo m.fl. 13 erhållna bilder av en grupp myggor med en enda kamera och konstruerade 3D-banan av myggor baserat på det geometriska förhållandet mellan mygggruppen och dess skugga på en vit bakgrund. Stowers m.fl. 14 använde FreemoVR-plattformen för att fastställa en höjd-aversionsanalys på möss och studerade visuomotoriska effekter på Drosophila och zebrafish. Denna metod var dock inte direkt lämplig för undersökning av beteenden för vilka stereopsi är viktigt eftersom den gjorde visuella stimuli i ett perspektiv-korrekt sätt för en enda synvinkel. Jantzen och Eisner 15 genomförde Lepidoptera 3D bana spårning, och Lihoreau et al. 16 fick tredimensionella födosöksflygningar av humlor. Men i dessa studier var den experimentella miljön relativt enkel, och målet var uppenbart. Automatiserad bildbaserad spårning har tillämpats för utomhusforskning, och avbildningsmetoden inkluderar termisk infraröd, och harmonisk radar 20 metoder. Xu och al. 21 föreslog en metod för 3D-observation av fisk baserad på en enda kamera. En vattentät spegel installerades ovanför en experimentell fisktank för att simulera en kamerafotografering från topp till botten. Även om den monokulära visionen kunde bestämma en 3D-bana, påverkades inspelningsvideon till stor del av miljöfaktorer, och beräkningsprocessen var komplex. Hardie och Powell 22 undersökte användningen av två eller flera parallella kameror för att få en bildsekvens | Yang m.fl. REF presenterar en metod för att analysera ramar extraherade från videor med hjälp av kärnoriserade korrelationsfilter (KCF) och bakgrund subtraktion (BS) (KCF-BS) för att rita 3D-banan av kålfjäril. | 49,414,493 | Target tracking and 3D trajectory acquisition of cabbage butterfly (P. rapae) based on the KCF-BS algorithm | {'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 330 |
Effektiv fil överföring mellan fordon är grundläggande för många framväxande fordons infotainment program i motorvägen Vehicular Ad Hoc Networks (VANETs), såsom innehållsdistribution och sociala nätverk. Men på grund av snabb rörlighet tenderar kopplingen mellan fordon att vara kortlivade och förlorade, vilket gör intakt filöverföring extremt utmanande. För att ta itu med detta problem presenterar vi ett nytt Cluster-baserat File Transfer (CFT) system för motorväg VANETs i detta papper. Med CFT, när ett fordon begär en fil, utvärderas överföringskapaciteten mellan resursfordonet och destinationsfordonet. Om den begärda filen kan överföras med lyckat resultat via den direkta Vehicular-to- Vehicle (V2V) anslutningen, kommer filöverföringen att slutföras av resursen och själva destinationen. Annars kommer ett kluster att bildas för att hjälpa filöverföringen. Eftersom CFT är ett fullt ututdelat system som bygger på samarbete mellan klustermedlemmar, behöver CFT inte någon hjälp från vägenheter eller åtkomstpunkter. Våra experimentella resultat tyder på att CFT överträffar de befintliga filöverföringssystemen för motorväg VANET. IEEE ICC 2017 Ad-Hoc och Sensor Networking Symposium 978-4673-8999-0/17/$31.00 ©2017 IEEE | Ref. I REF föreslås ett system för filöverföring med hög integritet för VANET på motorvägar som kallas Cluster-baserat system för filöverföring (CFT). | 18,939,669 | CFT: A Cluster-based File Transfer Scheme for highway VANETs | {'venue': '2017 IEEE International Conference on Communications (ICC)', 'journal': '2017 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']} | 331 |
Sammanfattning av denna webbsida: Feature Selection är ett viktigt steg i uppbyggnaden av noggranna klassificeringar och ger bättre förståelse för datamängderna. I detta dokument föreslår vi en metod för urval av undergrupper som bygger på högdimensionell ömsesidig information. Vi föreslår också att entropi av klassattributet används som ett kriterium för att bestämma lämplig delmängd av funktioner när man bygger klassificerare. Vi bevisar att om den ömsesidiga informationen mellan en funktion som X och klassen attribut Y är lika med entropi av Y, Då X är en Markov Filt av Y. Vi visar att det i vissa fall är omöjligt att tillnärma den högdimensionella ömsesidiga informationen med algebraiska kombinationer av parvis ömsesidig information i alla former. Dessutom är omfattande sökningar av alla kombinationer av funktioner en förutsättning för att hitta den optimala funktionen undergrupper för att klassificera dessa typer av datamängder. Vi visar att vårt tillvägagångssätt överträffar befintliga delmängdsmetoder för filterfunktioner för de flesta av de 24 utvalda referensdatamängderna. | I REF mäter upphovsmännen förhållandet mellan kandidatfunktionen undergrupper U och klassattributet y som utnyttjar resultaten på algoritmen Discrete Function Learning (DFS) gemensamt till den högdimensionella ömsesidiga informationsutvärderingen. | 12,877,142 | A Feature Subset Selection Method Based On High-Dimensional Mutual Information | {'venue': 'Entropy', 'journal': 'Entropy', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 332 |
Begreppet smitta har stadigt utvidgats från sin ursprungliga grund i epidemisk sjukdom till att beskriva ett stort antal processer som sprider sig över nätverk, särskilt sociala fenomen som modeflugor, politiska åsikter, införandet av ny teknik och finansiella beslut. Traditionella modeller av social smitta har baserats på fysiska analogier med biologisk smitta, där sannolikheten för att en individ påverkas av smittan växer monotont med storleken på hans eller hennes "kontakt område" - antalet drabbade individer som han eller hon är i kontakt med. Medan denna kontakt grannskap hypotes har bildat grunden för i huvudsak alla nuvarande modeller, har det varit utmanande att utvärdera det på grund av svårigheten att få detaljerade uppgifter om enskilda nätverk kvarter under loppet av en storskalig spridningsprocess. Här studerar vi denna fråga genom att analysera Facebooks tillväxt, ett sällsynt exempel på en social process med genuint global adoption. Vi finner att sannolikheten för smitta noga kontrolleras av antalet anslutna komponenter i en individs kontakt grannskap, snarare än av den faktiska storleken på grannskapet. Förvånansvärt nog, när denna "strukturella mångfald" kontrolleras för, storleken på kontakt grannskapet är i själva verket i allmänhet en negativ förutsägare av smitta. Mer allmänt visar vår analys hur data i Facebook-nätverkets storlek och upplösning gör det möjligt att identifiera subtila strukturella signaler som går oupptäckta i mindre skala men ändå har avgörande prediktiva roller för resultaten av sociala processer. Sociala nätverk System Sociala nätverk fungerar som värd för ett brett spektrum av viktiga sociala och icke-sociala spridningsprocesser (1-8). Mikrofoundationer av social smitta kan dock vara betydligt mer komplexa, eftersom sociala beslut kan vara mycket mer subtila på det sociala nätverkets struktur (9-17). I denna studie visar vi hur detaljerna i nätverket grannskapsstruktur kan spela en betydande roll i empiriskt förutsäga beslut av individer. Vi utför vår analys av två sociala spridningsprocesser som äger rum på webbplatsen för sociala nätverk Facebook: den process där användare ansluter sig till webbplatsen som svar på en inbjudan e-post från en befintlig Facebook-användare (därför kallas "rekrytering") och den process där användare så småningom blir engagerade användare efter att ha anslutit sig (härefter kallas "engagemang"). Även om de två processer vi studerar formellt hänför sig till Facebook, varierar deras detaljer avsevärt; konsekvensen i våra resultat mellan dessa olika processer, liksom mellan olika nationella populationer (Material och Metoder), tyder på att de fenomen vi observerar inte är specifika för någon enskild modalitet eller lokal. De sociala nätverken av individer består vanligen av flera betydelsefulla och väl åtskilda kluster, som återspeglar olika sociala sammanhang inom en individs liv eller livshistoria (18) (19) (20). Vi finner att denna mångfald av sociala sammanhang, som vi kallar strukturell mångfald, spelar en nyckelroll när det gäller att förutsäga de beslut som fattas av individer som ligger till grund för de sociala spridningsprocesser vi studerar. Vi utvecklar metoder för att kvantifiera sådan strukturell mångfald för nätverksområden, i stort sett tillämpliga på många olika skalor. Rekryteringsprocessen vi studerar har främst små stadsdelar, men de områden på plats som vi studerar i samband med engagemang kan vara betydligt större. För små stadsdelar mäts den strukturella mångfalden kortfattat genom antalet anslutna komponenter i grannskapet. För större stadsdelar, dock, bara räkna anslutna komponenter misslyckas med att skilja hur betydande komponenterna är i sin storlek och anslutning. För att avgöra om den strukturella mångfalden i bostadsområden på plats är en stark prediktor för engagemang på plats, utvärderar vi flera variationer av det uppkopplade komponentkonceptet som identifierar och räknar upp betydande strukturella sammanhang inom stora kvartersgrafer. Vi finner att alla de olika strukturella mångfaldsåtgärder som vi anser är robusta förutsäger engagemang. För både rekrytering och engagemang framträder strukturell mångfald som en viktig prediktor för studier av sociala spridningsprocesser. | Begreppet strukturell mångfald föreslogs först av Ugander et al. REF, som fann att användarens rekryteringsfrekvens i Facebook bestäms av mångfalden av en individs kontakt grannskap, snarare än storleken på hans eller hennes grannskap. | 12,993,348 | Structural diversity in social contagion | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Psychology', 'Medicine', 'Computer Science']} | 333 |
Vi studerar sociala nätverk online där relationer kan vara antingen positiva (vägledande relationer som vänskap) eller negativa (vägledande relationer som opposition eller antagonism). En sådan blandning av positiva och negativa länkar uppstår i en mängd olika online-inställningar; vi studerar datauppsättningar från Epinions, Slashdot och Wikipedia. Vi finner att tecken på länkar i de underliggande sociala nätverken kan förutsägas med hög noggrannhet, med hjälp av modeller som generaliserar över detta olika utbud av webbplatser. Dessa modeller ger insikt i några av de grundläggande principer som driver bildandet av signerade länkar i nätverk, kastar ljus över teorier om balans och status från socialpsykologi; de föreslår också sociala datortillämpningar genom vilka en användares inställning till en annan kan beräknas utifrån bevis som tillhandahålls av deras relationer med andra medlemmar i det omgivande sociala nätverket. ACM 978-1-60558-799-8/10/04. Den grundläggande frågan är då följande: Hur samverkar tecknet på en given länk med mönstret av länkskyltar i sin lokala närhet, eller mer allmänt i hela nätverket? Dessutom, vilka är de rimliga konfigurationerna av länkskyltar i verkliga sociala nätverk? Svar på dessa frågor kan hjälpa oss att resonera om hur negativa relationer används i online-system, och svar som generaliseras över flera domäner kan hjälpa till att belysa några av de underliggande principerna. Effektiva svar på sådana frågor kan också bidra till att informera utformningen av sociala datortillämpningar där vi försöker dra slutsatsen (oobserved) attityd av en användare mot en annan, med hjälp av de positiva och negativa relationer som har observerats i närheten av denna användare. En gemensam uppgift i nätgemenskaper är att föreslå nya relationer till en användare genom att föreslå att man skapar länkar till andra användare med vilka man delar vänner, intressen eller andra egenskaper. Utmaningen här är att användarna mycket väl kan ha redan befintliga attityder och åsikter - både positiva och negativa - gentemot andra som de delar vissa egenskaper med, och därmed innan de godtyckligt ger sådana förslag till användare, är det viktigt att kunna uppskatta dessa attityder från befintliga bevis i nätverket. Om A till exempel är känt för att ogilla människor som B tycker om, kan detta mycket väl ge bevis för A:s inställning till B. Förutsägelse av kanttecken. Med detta i åtanke, vi börjar med att formulera en konkret underliggande uppgift - kanten tecken förutsägelse problem - som vi kan direkt utvärdera och jämföra olika tillvägagångssätt. Kantteckens förutsägelseproblem definieras enligt följande. Antag att vi får ett socialt nätverk med tecken på alla dess kanter, men tecknet på kanten från node u till node v, betecknad s(u, v), har varit "dold". Hur tillförlitligt kan vi härleda detta tecken s (u, v) med hjälp av den information som tillhandahålls av resten av nätverket? Observera att detta problem är både en konkret formulering av våra grundläggande frågor om de typiska mönster av länktecken, och också ett sätt att närma sig vår motiverande tillämpning av sluta oobserverade attityder bland användare av sociala datorer webbplatser. Det finns en analogi här med länken förutsägelse problem för sociala nätverk [16]; på samma sätt som länk förutsägelse används för att dra slutsatser latenta relationer som är närvarande men inte registreras genom explicita länkar, kan tecken förutsägelse problem användas för att uppskatta känslan av individer mot varandra, med tanke på information om andra känslor i nätverket. När vi studerar problemet med teckenprognoser följer vi ett experimentellt ramverk som formulerats av Guha et al. i sina studier av tillit och misstro mot epinioner [8]. Vi utvidgar deras tillvägagångssätt i ett antal riktningar. För det första, där deras mål var att utvärdera spridningsalgoritmer baserade på exponentiering adjacency-matrisen, närmar vi oss problemet med hjälp av en maskininlärning ram som gör det möjligt för oss att utvärdera vilka av en rad strukturella funktioner som är mest informativa för förutsägelsen uppgift. Med hjälp av denna ram får vi också betydligt bättre resultat på själva uppgiften. | Dessutom har det visat sig att triader i ett socialt nätverk kan hjälpa till att utforska röstbeteendet REF ). | 7,119,014 | Predicting positive and negative links in online social networks | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 334 |
Biometriska egenskaper som fingeravtryck, irismönster och ansiktsdrag hjälper till att identifiera människor och begränsa tillgången till säkra områden genom att utföra avancerad mönsteranalys och matchning. Ansiktsigenkänning är en av de mest lovande biometriska metoderna för identifiering av människor i en icke-kooperativ säkerhetsmiljö. De igenkänningsresultat som erhålls genom system för ansiktsigenkänning påverkas dock av flera variationer som kan inträffa med mönstren i en obegränsad miljö. Som ett resultat har flera algoritmer utvecklats för att extrahera olika ansiktsdrag för ansiktsigenkänning. På grund av de olika möjliga utmaningarna med data som fångas vid olika ljusförhållanden, synvinklar, ansiktsuttryck och partiella ocklusioner i naturliga miljöförhållanden, är automatisk ansiktsigenkänning fortfarande en svår fråga som måste lösas. I detta dokument föreslår vi en ny strategi för att ta itu med några av dessa frågor genom att analysera de lokala texturala beskrivningarna för ansiktsdrag representation. Textural information extraheras genom en förbättrad lokal binärt mönster (ELBP) beskrivning av alla lokala regioner i ansiktet. Förhållandet mellan varje pixel med avseende på dess grannskap extraheras och används för att beräkna den nya representationen. ELBP rekonstruerar en mycket bättre textural funktion extraktion vektor från en original grå nivå bild i olika ljusförhållanden. Strukturbildens dimensionalitet reduceras genom huvudkomponentanalys som utförs på varje lokal region. Varje lågdimensionell vektor som representerar en lokal region vägs nu utifrån subregionens betydelse. Vikten för varje delregion bestäms med hjälp av den lokala variansuppskattningen för respektive region, som representerar regionens betydelse. Den slutliga ansiktstexturala vektorn erhålls genom att sammanfalla de reducerade dimensionsvikterna för alla moduler (underregioner) i ansiktsbilden. Experiment som utförs på olika populära ansiktsdatabaser visar lovande prestanda av den föreslagna algoritmen i varierande belysning, uttryck och partiell ocklusion förhållanden. Fyra databaser användes för att testa prestandan hos det föreslagna systemet: Yale Face databas, Extended Yale Face databas B, japanska kvinnliga ansiktsuttryck databas, och CMU AMP Facial Expression databas. De experimentella resultaten i alla fyra databaserna visar hur effektivt det föreslagna systemet är. Beräkningskostnaden är också lägre på grund av de förenklade beräkningsstegen. Forskningsarbetet fortskrider för att undersöka effektiviteten hos den föreslagna metoden för ansiktsigenkänning även när det gäller pose-varierande förhållanden. Man räknar med att ett flerfaldigt tillvägagångssätt med utbildade ramar på olika pose bins och en lämplig omröstningsstrategi skulle leda till ett gott erkännande i en sådan situation. | Referensreferensreferensen uppskattade vikten för varje delregion genom att använda den lokala variansen. | 120,403,361 | Adaptive weighted local textural features for illumination, expression, and occlusion invariant face recognition | {'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Physics', 'Engineering']} | 335 |
I detta dokument betraktar vi förenkling av meningen som en särskild form av översättning med den komplexa meningen som källan och den enkla meningen som målet. Vi föreslår en trädbaserad förenklingsmodell (TSM), som, såvitt vi vet, är den första statistiska förenklingsmodellen som omfattar uppdelning, nedgång, omordning och substitution helt och hållet. Vi beskriver också en effektiv metod för att träna vår modell med ett storskaligt parallellt dataset från Wikipedia och Simple Wikipedia. Utvärderingen visar att vår modell uppnår bättre läsbarhet än en uppsättning bassystem. | Förenlighetsförenkling För statistisk modellering föreslog REF en trädbaserad meningsförenklingsmodell med inspiration från statistisk maskinöversättning. | 15,636,533 | A Monolingual Tree-based Translation Model for Sentence Simplification | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 336 |
Sammanfattning att få tillgång till många datakällor förvärrar problem för användare av heterogena distribuerade databaser. Databasadministratörer måste hantera bräckliga medlare, det vill säga medlare med scheman och åsikter som måste ändras avsevärt för att införliva en ny datakälla. Vid genomförandet av översättare av frågor från medlare till datakällor, databas implementators måste hantera datakällor som inte stöder alla funktioner som krävs av medlare. Applikations programmerare måste hantera graceless misslyckanden för otillgängliga datakällor. Frågar helt enkelt returnera fel och ingen ytterligare information när datakällor är otillgängliga för frågebehandling. Den distribuerade informationen Sök Komponent ( Disco) tar itu med dessa problem. Datamodelleringsteknik hanterar anslutningarna till datakällor, och källor kan på ett öppet sätt läggas till användare och tillämpningar. Gränssnittet mellan medlare och datakällor hanterar exibelt olika frågespråk och olika datakällors funktionalitet. Fråga om skriva om och optimera tekniker skriva om frågor så att de är eektivt utvärderas av källor. Frågebehandling och utvärdering semantik utvecklas för att behandla frågor över otillgängliga datakällor. I den här artikeln beskriver vi (a) Discos distribuerade medlararkitektur (b) datamodellen och dess modellering av datakällaanslutningar (c) gränssnittet till underliggande datakällor och frågeskrivningsprocessen och (d) frågebehandling semantik. Vi beskriver flera fördelar med vårt system. | Författarna till REF föreslår distribuerad medlararkitektur med ett flexibelt gränssnitt mellan medlare och datakällor som effektivt hanterar olika frågespråk och olika datakällors funktionalitet. | 10,684,299 | Scaling access to heterogeneous data sources with DISCO | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 337 |
Inställnings- och anpassningsalternativ uppstår på grund av den heterogena och skalbara aspekten av molndata paradigmet. För att undvika att begränsas till ett visst moln och säkerställa tillämpningskrav, rekommenderas att flera moln används för att distribuera en multi-cloud konfiguration men introducerar flera utmaningar på grund av mängden leverantörer och deras inneboende variabilitet. I detta dokument presenterar vi en modelldriven metod baserad på Feature Models (fms) från Software Product Lines (spl) för att hantera molnvariabilitet och sedan hantera och skapa molnkonfigurationer. Vi kombinerar det med ontologier, som används för att modellera de olika semantiken i molnsystem. Metoden tar hänsyn till såväl tillämpningstekniska krav som icke-funktionella krav för att tillhandahålla en uppsättning giltiga moln- eller flermolnskonfigurationer och genomförs i ett ramverk som heter Saloon. | Quinton m.fl. REF har etablerat en arkitektur baserad på funktionsmodeller och ontologier för att beskriva och modellera molndatasystem, vilket minskar variationen vid arbete med multimolnkonfigurationer. | 18,471,299 | Towards multi-cloud configurations using feature models and ontologies | {'venue': "MultiCloud '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 338 |
I detta dokument föreslår vi en djupinlärning baserad fordon bana förutsägelse teknik som kan generera den framtida bana sekvens av omgivande fordon i realtid. Vi använder encoder-dekoder arkitektur som analyserar det mönster som ligger till grund för den tidigare banan med hjälp av den långsiktiga korttidsminne (LSTM) baserad kodare och genererar den framtida bana sekvens med hjälp av LSTM-baserade dekoder. Denna struktur producerar K troligast bana kandidater över beläggning rutnät karta genom att använda strålen sökteknik som håller K lokalt bästa kandidater från dekoder utdata. De experiment som utförs på vägtrafikscenarier visar att den föreslagna metodens förutsägelsenoggrannhet är betydligt högre än de konventionella teknikerna för att förutsäga banan. | SEQ2SEQ REF presenterar ett nytt LSTM-baserat encoder-dekoder-nätverk för att förutsäga banor i en rutnätskarta. | 3,653,452 | Sequence-to-Sequence Prediction of Vehicle Trajectory via LSTM Encoder-Decoder Architecture | {'venue': '2018 IEEE Intelligent Vehicles Symposium (IV)', 'journal': '2018 IEEE Intelligent Vehicles Symposium (IV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 339 |
Syftet med detta dokument är att beskriva pågående arbete inom specifikation och utveckling av webbaserade 3D-standarder och verktyg. Tidningen presenterar en Web3D-ansökan för militär utbildning som för närvarande pågår för försvarsmodellering och simuleringskontoret och marinkåren Combat Development Command. Webbbaserade 3D-verktyg för innehållsutveckling fortsätter att utvecklas. Web3D-konsortiet (http://www.web3d.org) främjar specifikation och utveckling av verktyg för att utnyttja 3D-grafik på World Wide Web. Det pågående arbetet är inriktat på att utveckla nästa generations specifikation för Web3D, kallad Extensible 3D (X3D – http://www.web3d.org/x3d.html). X3D är en scengrafikarkitektur och kodning som förbättrar den internationella standarden Virtual Reality Modeling Language (VRML) (VRML 97, ISO/IEC 14772-1:1997). X3D använder det omfattande markupspråket (XML) för att uttrycka VRML:s geometri och beteendeegenskaper. Primära målapplikationer för X3D är elektronisk handel produkt- och teknikdemonstration, visuell simulering, databasvisualisering, reklam och webbsideanimering, utökade nyheter och dokumentärer, utbildning, spel, underhållning och utbildning. I detta dokument diskuteras hur X3D kommer att åtgärda brister i VRML 97, VRML 97-kompatibilitet, samverkan med andra relevanta standarder, stramare medieintegration, förbättrad visuell kvalitet, komponentbaserat tillvägagångssätt, filformatsproblem och tid till marknaden. Dokumentet kommer också att presentera de aktuella framstegen för X3D-arbetsgruppen när det gäller att utveckla kärnspecifikationen för körtid, komponentspecifikationer, avancerade grafiktillägg (inklusive GeoVRML för geografiska representationer och H-Anim för humanoida modeller), XML 3D-taggars definition, textfilformat, binärt filformat, omvandling och omvandling av befintligt VRML 97-innehåll, konformitetstestning, demonstrationer och implementationer. Defense Modeling and Simulation Office (DMSO) och Marine Corps Combat Development Command (Utbildning och utbildning Command) har gett Naval Postgrade School (NPS) i uppdrag att bedriva forskning mot utveckling av ett scenario författarskap och webbaserad visualiseringsförmåga. Prototyping aktiviteter använder webbaserad teknik för informationsinnehåll (XML) och 3D grafiskt innehåll (X3D) för att skapa en inledande presentation av en amfibie verksamhet. Den planerade fulla kapaciteten kommer att representera kritiska aspekter av stridsrymden, såsom terräng, kraft d ispositioner, manövrar, bränder, samordningsåtgärder och timing. I detta dokument diskuteras tekniska utmaningar när det gäller att representera komplexa militära operationer i webbmiljöer och beskrivs pågående arbete för att demonstrera tillämpningen av webbaserad teknik för att skapa och utforska komplexa, flerdimensionella operativa scenarier. I dokumentet beskrivs möjligheternas tillämpning på andra utbildningsområden. | Andra arbeten med fokus på webbaserad teknik för att försvara tillämpningar fokuserade mer på 3D-teknik och författare REF. | 1,471,024 | Web-Based 3D Technology for Scenario Authoring and Visualization: The SAVAGE Project | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 340 |
< Lämpligt konfigurerade elektrokemiska sensorer kan användas för luftkvalitetsstudier. < Bevis på prestanda hos elektrokemiska sensorer på del-per-miljarder nivåer. < Sensorer är känsliga, låga ljud, mycket linjära och i allmänhet mycket selektiva. < Mättäthet (utrymme och tid) ouppnåelig med hjälp av aktuella metoder. < Visa billiga sensornätverk för luftkvalitet är nu möjliga för utbredd användning. a r t i c l e i n f o Mätningar med lämpliga rumsliga och tidsmässiga skalor är nödvändiga för att förstå och övervaka rumsligt heterogena miljöer med komplexa och mycket varierande utsläppskällor, t.ex. i stadsområden. Kostnaderna och komplexiteten hos konventionella luftkvalitetsmätningsmetoder innebär dock att mätnätverken i allmänhet är extremt glesa. I detta papper visar vi att mini, billiga elektrokemiska gassensorer, som traditionellt används för avkänning på delar-per-million (ppm) blandningsförhållanden kan, när lämpligt konfigureras och drivs, användas för del-per-miljard (ppb) nivåstudier för gaser som är relevanta för luftkvaliteten i städerna. Sensornoder, som i detta fall består av flera enskilda elektrokemiska sensorer, kan vara billiga och mycket portabla, vilket möjliggör utbyggnad av skalbara högdensitetssensornätverk för luftkvalitet på fin rumslig och temporal skala, och i både statiska och mobila konfigurationer. I detta papper ger vi bevis för prestanda hos elektrokemiska sensorer på del-per-miljard nivå, och sedan beskriva resultat som erhållits från utbyggnader av nätverk av sensornoder i både en autonom, hög densitet, statiska nätverk i det bredare Cambridge (UK) området, och som mobila nätverk för kvantifiering av personlig exponering. Exempel presenteras på mätningar som erhållits med både mycket bärbara anordningar som hålls av fotgängare och cyklister, och statiska anordningar som fästs på gatumöbler. De mycket varierande blandningsförhållanden som rapporterats i denna studie bekräftar att stadsmiljön inte kan karakteriseras fullt ut med hjälp av glesa, statiska nätverk, och att mätnätverk med högre upplösning (både rumsligt och tidsmässigt) krävs för att kvantifiera luftkvaliteten i de skalor som finns i stadsmiljön. Vi drar slutsatsen att de instrument som beskrivs här, och den lågkostnads- och högdensitetsmätningsfilosofi som ligger till grund för den, har potential att ge en långt mer fullständig bedömning av den höggranulata luftkvalitetsstruktur som allmänt observeras i stadsmiljön, och i slutändan kan användas för kvantifiering av människors exponering samt för övervakning och lagstiftning. | Det första scenariot är genomförbart med en korrekt konfiguration av lågkostnadssensorer, eftersom på detta sätt, sensorer som vanligen används för mätning på del-per-miljoner (ppm) nivå kan ge tillförlitliga resultat i delar-per-miljard (ppb) skala REF. | 18,110,517 | The use of electrochemical sensors for monitoring urban air quality in low-cost, high-density networks | {'venue': None, 'journal': 'Atmospheric Environment', 'mag_field_of_study': ['Chemistry']} | 341 |
Abstract-Behavioral ekonomi säger oss att känslor kan djupt påverka individuellt beteende och beslutsfattande. Gäller detta även för samhällen i stort, dvs. Kan samhällen uppleva stämningstillstånd som påverkar deras kollektiva beslutsfattande? I förlängningen är den allmänna stämningen korrelerad eller till och med prediktiv för ekonomiska indikatorer? Här undersöker vi om mätningar av kollektiva stämningstillstånd som härrör från storskaliga Twitter-flöden är korrelerade till värdet av Dow Jones Industrial Genomsnitt (DJIA) över tid. Vi analyserar textinnehållet i dagliga Twitter-flöden av två stämningsspårningsverktyg, nämligen OpinionFinder som mäter positivt vs. negativt humör och Google-Profile of Mood States (GPOMS) som mäter humör i termer av 6 dimensioner (Kalm, Alert, Sure, Vital, Kind, and Happy). Vi korsvaliderar de resulterande tidsserierna genom att jämföra deras förmåga att upptäcka allmänhetens svar på presidentvalet och Thanksgiving-dagen 2008. En Granger kausalitetsanalys och en Själv-Organizing Fuzzy Neural Network används sedan för att undersöka hypotesen att allmänhetens humörtillstånd, mätt genom opinionsbildare och GPOMS stämningstidsserie, är prediktiva för förändringar i DJIA slutvärden. Våra resultat visar att noggrannheten i DJIA förutsägelser kan förbättras avsevärt genom att inkludera specifika offentliga stämning dimensioner men inte andra. Vi finner en noggrannhet på 87,6% i att förutsäga den dagliga upp och ner förändringar i slutvärdena för DJIA och en minskning av medelvärdet procentfel med mer än 6%. Index Villkor-stock marknadsförutsägelse -twitter -mood analys. | Ref ) mäta kollektiva humörtillstånd (positiva, negativa, lugna, alerta, säkra, vitala, vänliga och glada) genom känsloanalys som tillämpas på mer än 9 miljoner tweets som postades 2008. | 14,727,513 | Twitter mood predicts the stock market | {'venue': 'Journal of Computational Science, 2(1), March 2011, Pages 1-8', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 342 |
Vi anser att problemet med att rekommendera den bästa uppsättningen k objekt när det finns en inneboende beställning mellan objekt, uttryckt som en uppsättning förutsättningar (t.ex., filmen "Gudfader I" är en förutsättning för "Gudfader II"). Eftersom detta allmänna problem är beräkningsmässigt intractable, utvecklar vi 3 approximation algoritmer för att lösa detta problem för olika förutsättningar strukturer (t.ex., kedja grafer, OCH grafer, AND-OR grafer). Vi härleder värsta fall gränser för dessa algoritmer för dessa strukturer, och experimentellt utvärdera dessa algoritmer på syntetiska data. Vi utvecklar också en algoritm för att kombinera lösningar för att generera ännu bättre lösningar och jämföra denna algoritms prestanda med de andra tre. | Rekommendation med förutsättningar studerades i REF, där målet är att rekommendera den bästa uppsättningen k objekt när det finns en inneboende beställning mellan objekt. | 7,975,439 | Evaluating, combining and generalizing recommendations with prerequisites | {'venue': "CIKM '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 343 |
Eftersom det saknas realistiska uppgifter om sanningen på marken, utvärderas avbilda denoising tekniker traditionellt på bilder som är skadade av syntetiserade i. d. Gaussian brus. Vi strävar efter att undanröja denna orealistiska miljö genom att utveckla en metod för benchmarking av denoiserande tekniker på verkliga fotografier. Vi fångar bildpar med olika ISO-värden och lämpligt anpassade exponeringstider, där den nästan bullerfria låg-ISO-bilden fungerar som referens. För att få fram sanningen på marken krävs noggrann efterbehandling. Vi korrigerar rumsliga avvikelser, hanterar felaktigheter i exponeringsparametrarna genom en linjär intensitetsomvandling baserad på en ny heteroscedastisk Tobits regressionsmodell, och tar bort resterande lågfrekventa bias som härrör från t.ex. mindre ljusförändringar. Vi fångar sedan en ny benchmarking dataset, Darmstadt Noise Dataset (DND), med konsumentkameror av olika sensorstorlekar. Ett intressant fynd är att olika nya tekniker som presterar bra på syntetiskt buller tydligt överträffas av BM3D på fotografier med verkligt buller. Vårt riktmärke beskriver realistiska utvärderingsscenarier som avviker kraftigt från de som används i den vetenskapliga litteraturen. | En noggrann utvärdering nyligen med verkliga data fann att BM3D överträffar nyare tekniker på verkliga bilder REF. | 9,715,523 | Benchmarking Denoising Algorithms with Real Photographs | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 344 |
Abstract-Ett centralt problem med att släppa aggregerad information om känsliga data är att göra det exakt samtidigt som en integritetsgaranti på utdata. Det senaste arbetet fokuserar på klassen av linjära frågor, som inkluderar grundläggande räkna frågor, data kuber, och beredskapsplaner. Målet är att maximera nyttan av deras utdata, samtidigt som den ger en rigorös sekretessgaranti. De flesta resultat följer en gemensam mall: välj en "strategi" uppsättning linjära frågor för att tillämpa på data, sedan använda de bullriga svaren på dessa frågor för att rekonstruera frågor av intresse. Detta innebär antingen att välja en strategi som hoppas vara bra för frågorna, eller att utföra en kostsam sökning över utrymmet för alla möjliga strategier. I detta dokument föreslår vi ett nytt tillvägagångssätt som balanserar noggrannhet och effektivitet: vi visar hur man kan förbättra noggrannheten hos en given fråga som sätts genom att svara på vissa strategifrågor mer exakt än andra. Detta leder till en effektiv optimal bullerfördelning för många populära strategier, inklusive wavelets, hierarkier, Fourier koefficienter och mer. För det viktiga fallet med marginella frågor visar vi att detta avsevärt förbättrar tidigare metoder, både analytiskt och empiriskt. Våra resultat sträcker sig också till att se till att svaren på de returnerade frågorna stämmer överens med en (okänd) datauppsättning till minimal extra kostnad när det gäller tid och buller. | Med tanke på en arbetsbelastning av frågor, Yaroslavtsev et al. REF införde en lösning för att balansera noggrannhet och effektivitet genom att besvara vissa frågor mer exakt än andra. | 9,105,079 | Accurate and efficient private release of datacubes and contingency tables | {'venue': '2013 IEEE 29th International Conference on Data Engineering (ICDE)', 'journal': '2013 IEEE 29th International Conference on Data Engineering (ICDE)', 'mag_field_of_study': ['Computer Science']} | 345 |
I detta arbete föreslår vi en effektiv selektiv retransmissionsmetod för flera in- och multipleoutput (MIMO) trådlösa system under ortogonal frekvensdivision multiplexing (OFDM) signalering. En typisk mottagen OFDM-ram kan ha några symboler i fel, vilket resulterar i en återsändning av hela ramen. En sådan vidaresändning är ofta onödig, och för att undvika detta föreslår vi en metod för selektivt återsända symboler som motsvarar underbärare av dålig kvalitet. Vi använder tillståndsnumren för subcarrier kanalmatriser i MIMO-OFDM-systemet som ett kvalitetsmått. Det föreslagna systemet är inbyggt i moduleringsskiktet och är oberoende av konventionella metoder för automatisk begäran om hybrider (HARQ). Mottagaren integrerar original OFDM och punkterade återsända OFDM-signaler för mer tillförlitlig detektering. Den riktade vidaresändningen resulterar i färre negativa erkännanden från konventionella HARQ-algoritmer, vilket resulterar i ökad bandbredd och effekteffektivitet. Vi undersöker effekten av den föreslagna metoden för optimala och suboptimala mottagare. Simuleringsresultaten visar den föreslagna metodens effektivitet på genomströmningen för MIMO-OFDM-system. | Arbetet i REF undersöker selektiv retransmission för MIMO-OFDM-system med hjälp av tillståndsnummer för kanalmatrisen för underbärare som ett mått på kanalkvalitet. | 31,411,245 | Bandwidth-Efficient Selective Retransmission for MIMO-OFDM Systems | {'venue': None, 'journal': 'Etri Journal', 'mag_field_of_study': ['Computer Science']} | 346 |
Motivering: Supervised maskininlärning används ofta i genomisk forskning för att konstruera en klassificering från de träningsdata som är generaliserade för att förutsäga oberoende testdata. När testdata inte finns tillgängliga används ofta korsvalidering för att uppskatta felfrekvensen. Många maskininlärningsmetoder finns tillgängliga, och det är välkänt att det inte finns någon universellt bästa metod i allmänhet. Det har varit en vanlig praxis att tillämpa många maskininlärningsmetoder och rapportera den metod som ger den minsta korsvalideringsfelfrekvensen. Teoretiskt sett leder ett sådant förfarande till en fördomsfull urvalsprocess. Följaktligen har många kliniska studier med måttliga provstorlekar (t.ex. n = 30–60) Riskrapportering av en falskt liten felfrekvens för korsvalidering som inte kunde valideras senare i oberoende kohorter. Resultat: I den här artikeln illustrerade vi den probabilistiska ramen för problemet och utforskade de statistiska och asymptotiska egenskaperna. Vi föreslog en ny biaskorrigeringsmetod baserad på inlärningskurva som passar invers kraftlag (IPL) och jämförde den med tre befintliga metoder: nästad korsvalidering, viktad genomsnittlig korrigering och Tibshirani-Tibshirani-procedur. Alla metoder jämfördes i simuleringsdataset, fem medelstora verkliga dataset och två stora bröstcancerdataset. Resultatet visade att IPL överträffar de andra metoderna i snedkorrigering med mindre varians, och det har en ytterligare fördel att extrapolera feluppskattningar för större provstorlekar, en praktisk funktion för att rekommendera om fler prover bör rekryteras för att förbättra klassificeringen och noggrannheten. Ett R-paket "MLbias" och alla källfiler är allmänt tillgängliga. | I REF föreslogs en omsamplingsbaserad metod för omvänd effekträtt (IPL) för partisk korrigering och jämförde dess prestanda med resultaten från TT, NCV och WMC/WMCS på både simulerade och verkliga datamängder. | 1,705,607 | Bias correction for selecting the minimal-error classifier from many machine learning models | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 347 |
Abstract-Även om hög dynamisk räckvidd (HDR) avbildning har vunnit stor popularitet och acceptans inom både vetenskapliga och kommersiella områden, förhållandet mellan perceptuellt exakt, innehållsoberoende dynamisk räckvidd och objektiva åtgärder har inte undersökts fullt ut. I detta dokument föreslås en ny metod för upplevd dynamisk områdesbedömning av komplexa stimuli i HDR-förhållanden. En sUbjective studie med 20 deltagare genomfördes och korrelationer mellan genomsnittliga åsiktspoäng (MOS) och tre bildfunktioner analyserades. Starka Spearman korrelationer mellan MOS och objektiv DR mått och mellan MOS och bild nyckel hittades. En undersökande analys visar att ytterligare bildegenskaper bör beaktas vid modellering av perceptuellt baserade dynamiska intervallmått. Slutligen är ett av resultaten av studien den perceptuellt kommenterade HDR-bilddatasetet med MOS-värden, som kan användas för HDR-avbildningsalgoritmer och metrisk validering, innehållsval och analys av estetiska bildattribut. | Hulusic et al:s arbete. I REF införs en subjektiv mätmetod för det upplevda dynamiska intervallet. | 8,426,670 | Perceived dynamic range of HDR images | {'venue': '2016 Eighth International Conference on Quality of Multimedia Experience (QoMEX)', 'journal': '2016 Eighth International Conference on Quality of Multimedia Experience (QoMEX)', 'mag_field_of_study': ['Computer Science']} | 348 |
I detta dokument föreslås en ny datortomografi (CT) lungknuta datorstödd detektion (CAD) metod för att upptäcka både fasta knölar och markglas opacitet (GGO) knölar (del fast och icke fast). Denna metod består av flera steg. För det första är lungregionen segmenterad från CT-data med hjälp av en suddig tröskelmetod. Därefter, den volymetriska form index karta, som är baserad på lokala Gaussiska och genomsnittliga kurvor, och "punkt" karta, som är baserad på eigenvärden av en hessisk matris, beräknas för varje voxel i lungorna för att förbättra objekt av en specifik form med höga sfäriska element (såsom nodule objekt). Kombinationen av formindex (information om lokal form) och "punkt"-funktioner (information om lokal intensitetsspridning) ger en bra strukturdeskriptor för den ursprungliga generering av nodulekandidater. Antigeometrisk diffusion, som sprider sig över bildkanterna, används som ett förbehandlingssteg. Bildkanternas jämnhet gör det möjligt att exakt beräkna voxelbaserade geometriska egenskaper. Adaptiv tröskel och modifierade förväntanmaximeringsmetoder används för att segmentera potentiella noduler objekt. Regelbaserad filtrering används först för att ta bort lätt otillåtna nonnodule objekt. Detta följs av en viktad vektor maskin (SVM) klassificering för att ytterligare minska antalet falskt positiva (FP) objekt. Den föreslagna metoden har utbildats och validerats på en klinisk datauppsättning av 108 thoraxiska datortomografier med hjälp av ett brett spektrum av dosnivåer för rör som innehåller 220 knutor (185 fasta knutor och 35 GGO-knutor) som bestäms av en process för att läsa sanningen på marken. Datan delades upp slumpmässigt i tränings- och testdatauppsättningar. De experimentella resultaten med hjälp av den oberoende datauppsättningen indikerar en genomsnittlig detektionsfrekvens på 90,2 %, med cirka 8,2 FP/scan. Vissa utmanande knutor som icke-sfäriska knutor och lågkontrastdelfasta och icke-fasta knutor identifierades, medan de flesta vävnader såsom blodkärl uteslöts. Metodens höga detektionshastighet, snabba beräkningar och tillämplighet på olika bildförhållanden och noduletyper visar mycket lovande för kliniska tillämpningar. | Xujiong Ye m.fl. I REF presenteras en ny datortomografi (CT) lungknuta datorstödd detektionsmetod (CAD). | 349,469 | Shape-Based Computer-Aided Detection of Lung Nodules in Thoracic CT Images | {'venue': 'IEEE Transactions on Biomedical Engineering', 'journal': 'IEEE Transactions on Biomedical Engineering', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 349 |
I verkliga världen komplexa nätverk beror betydelsen av en nod på två viktiga parametrar: 1. egenskaper noden, och 2. sammanhanget för den givna tillämpningen. Den aktuella litteraturen innehåller flera centrala åtgärder som har definierats för att mäta betydelsen av en nod baserad på de givna tillämpningskraven. Dessa centralitetsmått hänför ett centralitetsvärde till varje nod som betecknar dess viktindex. Men i verkliga tillämpningar, är vi mer intresserade av den relativa betydelsen av noden som kan mätas med hjälp av dess centralitet rang baserat på den givna centralitetsmåttet. För att beräkna centraliteten rang av en nod, måste vi beräkna centralitetsvärdet av alla noder och jämföra dem för att få rangen. Denna process kräver hela nätverket. Därför är det inte möjligt för verkliga tillämpningar på grund av den stora storleken och dynamiken i verkliga nätverk. I detta projekt strävar vi efter att föreslå snabba och effektiva metoder för att uppskatta den globala centralitetens rankning av en nod utan att beräkna centralitetsvärdet för alla noder. Dessa metoder kan utökas ytterligare för att uppskatta rangen utan att ha hela nätverket. De föreslagna metoderna använder det strukturella beteendet hos centralitet åtgärder, provtagningstekniker, eller maskininlärning modeller. I detta arbete diskuterar vi också hur man ska tillämpa dessa metoder för grad- och närhetsgradsbedömning. | Forskare har fokuserat på att föreslå snabba och effektiva metoder för att identifiera inflytelserika noder och deras rankning i det givna nätverket REF. | 22,872,146 | Global Rank Estimation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']} | 350 |
Vi föreslår en enkel och effektiv metod för att utnyttja syntetiska bilder när du tränar ett Deep Network för att förutsäga en 3D pose från en bild. Förmågan att använda syntetiska bilder för att träna ett Deep Network är mycket värdefull eftersom det är lätt att skapa ett praktiskt taget oändligt träningsset gjort av sådana bilder, samtidigt som fånga och kommentera riktiga bilder kan vara mycket tungrodd. Men syntetiska bilder liknar inte riktiga bilder exakt, och att använda dem för utbildning kan resultera i suboptimal prestanda. Det visades nyligen att för exemplarbaserade metoder är det möjligt att lära sig en kartläggning från exemplar representationer av verkliga bilder till exemplar representationer av syntetiska bilder. I detta dokument visar vi att detta tillvägagångssätt är mer allmänt, och att ett nätverk kan också tillämpas efter kartläggningen för att härleda en 3D pose: Vid körtid, med tanke på en verklig bild av målobjektet, vi först beräkna funktionerna för bilden, mappa dem till funktionen utrymme syntetiska bilder, och slutligen använda de resulterande funktioner som indata till ett annat nätverk som förutspår 3D pose. Eftersom detta nätverk kan utbildas mycket effektivt genom att använda syntetiska bilder, fungerar det mycket bra i praktiken, och slutsatsen är snabbare och mer exakt än med ett exemplar-baserat tillvägagångssätt. Vi demonstrerar vår strategi på LINEMOD dataset för 3D objekt pos estimering från färgbilder, och NYU dataset för 3D hand utgör estimering från djupkartor. Vi visar att det gör det möjligt för oss att överträffa toppmoderna på båda datauppsättningarna. | REF karterade verkliga bildfunktioner till funktionsutrymmet för syntetiska bilder och använde den kartlagda informationen som en inmatning till ett aktivitetsspecifikt nätverk, endast utbildad på syntetiska data. | 4,331,981 | Feature Mapping for Learning Fast and Accurate 3D Pose Inference from Synthetic Images | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 351 |
Morfologisk analys av arabiska språket är beräkningsintensiv, har många former och regler, och i sig parallell. Den undersökning som presenteras i detta dokument bekräftar att en effektiv utveckling av parallella algoritmer och härledning av motsvarande processorer i hårdvara möjliggör implementeringar med tilltalande prestandaegenskaper. Den presenterade utvecklingen av parallell hårdvara omfattar tillämpning av en mängd olika algoritm modellering tekniker, strategier för samtidig bearbetning, och skapandet av banbrytande hårdvaruimplementationer som riktar sig till moderna programmerbara enheter. Undersökningen omfattar skapandet av en språkbaserad stammer för arabisk verbrotsextraktion med förlängd infix-behandling för att uppnå hög noggrannhet. Implementationerna omfattar tre versioner, nämligen programvara, icke-pipelined processor, och pipelined processor med hög genomströmning. De riktade systemen är högpresterande multi-core processorer för mjukvaruimplementeringar och high-end Field Programmerbara Gate Array-system för hårdvaruimplementeringar. Undersökningen omfattar en grundlig utvärdering av metodiken samt prestanda- och noggrannhetsanalyser av de utvecklade mjukvaru- och hårdvaruimplementationerna. De utvecklade processorer uppnådde betydande hastigheter över programimplementeringen. Den utvecklade stammeren för verbrotextraktion med infix bearbetning uppnådde noggrannhet 87% och 90,7% för analys av texterna i den Heliga Koranen och dess Kapitel 29 -Surat Al-Ankabut. | Forskning om parallella algoritmbaserade processorer och utveckling av en lämplig processor i hårdvara har lett till utvecklingen av en högpresterande multi-core processorsystem för programimplementering och en high-end programmerbar grind array system för maskinvaruimplementering REF. | 64,550,954 | Parallel Hardware for Faster Morphological Analysis | {'venue': 'Comp. Inf. Sc. 30(2018) 531-546', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 352 |
I detta dokument behandlar vi tre olika datorseende uppgifter med hjälp av en enda flerskalig convolutional nätverk arkitektur: djupförutsägelse, yta normal uppskattning, och semantisk märkning. Det nätverk som vi utvecklar kan anpassa sig naturligt till varje uppgift med hjälp av endast små modifieringar, regression från inmatningsbilden till utgångskartan direkt. Vår metod förfinar successivt förutsägelser med hjälp av en sekvens av skalor, och fångar många bilddetaljer utan någon superpixel eller låg nivå segmentering. Vi uppnår state-of-the-art prestanda på riktmärken för alla tre uppgifter. | I REF föreslogs en adaptiv, flerskalig CNN-arkitektur för att gemensamt utföra djupprognoser, ytnormal uppskattning och semantisk märkning. | 102,496,818 | Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-scale Convolutional Architecture | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 353 |
ABSTRACT När lem-funktionshindrade patienter vill aktivera sköterska nödsamtalssystem, justera temperaturen på luftkonditioneringsapparater, slå på eller släcka lampor, titta på TV, eller har andra brådskande behov, och behöver hjälp från andra människor, deras behov kan inte lätt tillgodoses om det inte finns någon runt. Alla ovan nämnda enheter måste manövreras manuellt eller med en fjärrkontroll. Handikappade patienter kan därför inte operera själva, och detta ökar också vårdassistenternas börda. För att förbättra ovanstående problem är ett nytt icke-kontaktkontrollsystem utformat för att göra det möjligt för funktionshindrade patienter att aktivera sjuksköterskesystemet för nödsamtal och justera andra apparater. Handikappade patienter kan stirra på kontrollikonerna för en visuell stimulansgenerator, som åtföljer en bärbar elektroencefalogram (EEG) förvärvsanordning med icke-kontakt torrelektrod för att övervaka patienternas EEG-signaler och omvandla EEG-signaler till relevanta kontrollkommandon via signalbehandlingssystemet, för att uppnå funktionen som sjuksköterska samtal och effekten av att kontrollera anordningarna på ett sjukhus. Resultatet visar att det föreslagna systemet effektivt skulle kunna övervaka och omvandla EEG-signaler och uppnå de kontrolleffekter som funktionshindrade en patient önskar på ett sjukhus. Därför ger systemet för icke-kontaktkontroll en ny kontrollram för anläggningarna på ett sjukhus, som i hög grad hjälper patienter med funktionsnedsättning i armar och ben. INDEX TERMS Sjuksköterska nödsamtal system, visuell stimulans generator, trådlös EEG förvärvsenhet, icke-kontakt styrsystem, funktionshindrade patienter. | Patienterna kan bära EEG förvärv enhet med elektroder för att övervaka patienten EEG-signal att konvertera till relevanta kommandon för att justera enheterna REF. | 6,777,254 | Novel Non-Contact Control System for Medical Healthcare of Disabled Patients | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 354 |
Abstract-Distribuerade program som kör inuti molnsystem är benägna att prestanda anomalier på grund av olika skäl såsom resurs stridigheter, programvara buggar och maskinvarufel. En stor utmaning för att diagnostisera ett onormalt distribuerat program är att hitta felkomponenterna. I detta papper presenterar vi en svart-box online fel lokaliseringssystem som heter FChain som kan lokalisera felaktiga komponenter omedelbart efter en prestanda anomali upptäcks. FChain upptäcker först den inledande tiden av onormala beteenden på olika komponenter genom att skilja den onormala förändringspunkten från många förändringspunkter som orsakas av normala arbetsbelastningsfluktuationer. Felkomponenter identifieras sedan baserat på onormala förändringsförökningsmönster och beroendeförhållanden mellan komponenter. FChain utför körtidsvalidering för att ytterligare filtrera bort falska alarm. Vi har implementerat FChain ovanpå Xen-plattformen och testat den med hjälp av flera referensapplikationer (RUBiS, Hadoop och IBM System S). Våra experimentella resultat visar att FChain snabbt kan lokalisera de felaktiga komponenterna med hög noggrannhet inom några sekunder. FChain kan uppnå upp till 90 % högre precision och 20 % högre återkallande än befintliga system. FChain är icke-inträngande och lättviktig, vilket innebär mindre än 1% overhead till molnsystemet. | FChain REF övervakar genomförandet av distribuerade applikationer för att upptäcka prestandaavvikelser och för att identifiera den felaktiga komponenten genom att rekonstruera spridningsmönstren för onormala bytespunkter. | 6,384,187 | FChain: Toward Black-Box Online Fault Localization for Cloud Systems | {'venue': '2013 IEEE 33rd International Conference on Distributed Computing Systems', 'journal': '2013 IEEE 33rd International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']} | 355 |
Det senaste arbetet har visat genomförbarheten av enkanals fullduplex trådlösa fysiska lager, vilket gör att noder kan skicka och ta emot i samma frekvensband samtidigt. I denna rapport, vi först utforma och genomföra en realtid 64-subcarrier 10 MHz full-duplex OFDM fysiska skikt, FD-PHY. Den föreslagna FD-PHY tillåter inte bara synkrona full-duplex-överföringar utan även selektiva asynkrona fullduplex-lägen. Vidare visar vi att i överluftsexperiment med optimal antennplacering på faktiska enheter, kan självinblandningen undertryckas upp till 80dB, vilket är 10dB mer än tidigare rapporterade resultat. Sedan föreslår vi ett komplett MAC-protokoll, FD-MAC, som bygger på IEEE 802.11 med tre nya mekanismer -delad slumpmässig backoff, huvud snooping och virtuella backoffs. De nya mekanismerna gör det möjligt för FD-MAC att upptäcka och utnyttja möjligheter med full duplex på ett distribuerat sätt. Våra over-theair tester visar över 70% genomströmningsvinster från att använda fullduplex över halvduplex i realistiskt använda fall. | Sahai m.fl. föreslog en full-duplex MAC (FD-MAC) protokoll för att jämnt ge överföringsmöjligheter och minska kollisionsannolikhet REF. | 9,756,937 | Pushing the limits of Full-duplex: Design and Real-time Implementation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 356 |
Trots befintliga arbete med att säkerställa generalisering av neurala nätverk i termer av skala känsliga komplexa åtgärder, såsom normer, marginal och skärpa, dessa komplexa åtgärder ger inte en förklaring till varför neurala nätverk generaliseras bättre med överparametrisering. I detta arbete föreslår vi en ny komplexitetsåtgärd baserad på enhetsmässigt kapacitet vilket resulterar i en stramare generalisering bunden till två skikt ReLU-nät. Vår kapacitetsbindning korrelerar med beteendet hos testfel med ökande nätverksstorlekar, och kan potentiellt förklara förbättringen i generalisering med överparametrisering. Vi presenterar vidare en matchande lägre gräns för Rademacher komplexitet som förbättrar över tidigare kapacitet lägre gränser för neurala nätverk. | REF undersöker Rademachers komplexitet i tvåskiktsnät. | 44,130,076 | Towards Understanding the Role of Over-Parametrization in Generalization of Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 357 |
Det finns flera automatiska verifieringsverktyg för kryptografiska protokoll, men bara ett fåtal av dem kan kontrollera protokoll i närvaro av algebraiska egenskaper. De flesta av dessa verktyg handlar antingen med Exclusive-Or (XOR) och exponentiation egenskaper, så kallade Diffie-Hellman (DH). Under de senaste åren har antalet av dessa verktyg ökat och vissa befintliga verktyg har uppdaterats. Vårt mål är att jämföra deras prestationer genom att analysera ett urval av kryptografiska protokoll med hjälp av XOR och DH. Vi jämför körningstid och minnesförbrukning för olika versioner av följande verktyg OFMC, CL-Atse, Scyther, Tamarin, TA4SP, och tillägg av ProVerif (XOR-ProVerif och DH-ProVerif). Vår utvärdering visar att i de flesta fall är de nya versionerna av verktygen snabbare men förbrukar mer minne. Vi visar också hur de nya verktygen: Tamarin, Skyther och TA4SP kan jämföras med tidigare. Vi upptäcker och förstår också för protokollet IKEv2-DS en skillnad i modellering av författarna till olika verktyg, vilket leder till olika säkerhetsresultat. Slutligen, för Exclusive-Or och Diffie-Hellman fastigheter, bygger vi två familjer av protokoll P xori och P dhi som gör att vi för första gången tydligt kan se effekten av antalet operatörer och variabler i verktygens prestanda. S 3 A [DSV03] och [CE02]. Alla dessa verktyg kan verifiera en eller flera säkerhetsegenskaper och förlita sig på olika teoretiska metoder, t.ex. skriva om, lösa begränsningar system, SAT-solvers, upplösning av Horn klausuler, eller träd automata etc. Alla dessa verktyg fungerar i den symboliska världen, där alla budskap representeras av en algebra av termer. Dessutom tar de också hänsyn till den välkända Dolev-Yao-inkräktarmodellen [DY81], där en kraftfull inkräktare anses [Cer01]. Denna inkräktare styr nätverket, lyssnar, stannar, smedjar, spelar upp eller ändrar vissa meddelanden enligt dess funktioner och kan spela flera sessioner i ett protokoll. Den perfekta krypteringshypotesen antas ofta, vilket innebär att utan den hemliga nyckeln kopplad till ett krypterat meddelande är det inte möjligt att dekryptera chiffer-texten. I en sådan modell kan de flesta av verktygen verifiera två säkerhetsegenskaper: sekretess och autentisering. Den första egenskapen säkerställer att en inkräktare inte kan lära sig ett hemligt meddelande. autentisering egenskapen innebär att en deltagare i protokollet är säker på att kommunicera med en annan. Historiskt har formella metoder utvecklats för att analysera kryptografiska protokoll efter den brist som upptäcktes av G. Lowe [Low96] 17 år efter publiceringen av Needham-Schoreder protokollet [NS78]. Säkerheten i detta protokoll har bevisats för en session med hjälp av BAN-logiken i [BAN90, BM94]. Felet som upptäcktes av G. Lowe [Low96] fungerar eftersom inkräktaren spelar en session med Alice och samtidigt en andra med Bob. Bob tror att han pratar med Alice. Inkräktaren lär sig den delade hemliga nyckeln som Bob tror att han delar med Alice. Detta exempel visar tydligt att även för ett protokoll av tre meddelanden antalet möjliga kombinationer överträffar människans förmåga. I närvaro av algebraiska egenskaper, antalet möjliga kombinationer för att konstruera spår blåser upp. Situationen är ännu värre eftersom vissa attacker kan missas. Låt överväga följande 3-pass Shamir protokoll som består av tre meddelanden, där {m} KA betecknar kryptering av m med den hemliga nyckeln KA: Detta protokoll fungerar endast om krypteringen har följande algebraiska egenskap: {{m} KA } KB = {{m} KB } KA. För att genomföra detta protokoll kan man använda One Time Pad (OTP) kryptering, även känd som Vernam kryptering eftersom det i allmänhet krediteras Gilbert S. Vernam och Joseph O. Mauborgne, men faktiskt uppfanns 35 år tidigt av Franck Miller [Bel11]. Krypteringen av meddelandet m med nyckeln k är m på k. Krypteringen är helt säker enligt Shanons informationsteori, vilket innebär att utan att veta nyckeln läcker ingen information om meddelandet [Vau05, BJL + 10]. Dessutom är OTP- krypteringen nyckelkommuterande sedan: {{m} KA} KB = (m på KA) och KB = (m på KB) på KA = {{m} KB} KA. Tyvärr kombinerar | Mer nyligen, Lafourcade och Puys REF fokuserar på prestandaanalys av ett antal verktyg inklusive en ProVerif förlängning och analys av 21 kryptografiska protokoll som behandlar Exclusive-Or (xor) och exponentiation egenskaper som Diffie-Hellman (DH). | 40,438,024 | Performance Evaluations of Cryptographic Protocols Verification Tools Dealing with Algebraic Properties | {'venue': 'FPS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 358 |
Abstrakt. Det är vanligt att använda domänspecifika terminologi - attribut - för att beskriva det visuella utseendet av objekt. För att skala användningen av dessa urskiljbara visuella attribut till ett stort antal kategorier, särskilt de som inte är väl studerade av psykologer eller lingvister, kommer det att vara nödvändigt att hitta alternativa tekniker för att identifiera attributvokabulärer och för att lära känna igen attribut utan handmärkt utbildningsdata. Vi visar att det är möjligt att utföra båda dessa uppgifter automatiskt genom att utvinna text- och bilddata från Internet. Den föreslagna metoden karakteriserar också attribut enligt deras visuella representation: global eller lokal, och typ: färg, textur, eller form. Detta arbete fokuserar på att upptäcka attribut och deras visuella utseende, och är så agnostiskt som möjligt om textbeskrivningen. | Berg m.fl. REF identifierar attribut genom gruvtext och bilder från webben. | 1,698,147 | Automatic Attribute Discovery and Characterization from Noisy Web Data | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 359 |
Abstrakt. Djupa neurala nätverk har haft anmärkningsvärd framgång för olika vision uppgifter, men det är fortfarande utmanande att tillämpa CNNs till domäner som saknar en regelbunden underliggande strukturer såsom 3D-punkt moln. Mot detta föreslår vi en ny konvolutionell arkitektur, kallad SpiderCNN, för att effektivt extrahera geometriska egenskaper från punktmoln. SpiderCNN består av enheter som kallas SpiderConv, som utvidgar konvolutionsoperationer från vanliga rutnät till oregelbundna punktuppsättningar som kan inbäddas i R n, genom att parametrisera en familj av konvolutionsfilter. Vi designar filtret som en produkt av en enkel stegfunktion som fångar lokal geodesisk information och en Taylor polynomial som säkerställer uttrycksfullheten. SpiderCNN ärver den flerskaliga hierarkiska arkitekturen från klassiska CNNs, vilket gör det möjligt att extrahera semantiska djupa funktioner. Experiment på ModelNet40[4] visar att SpiderCNN uppnår toppmodern noggrannhet 92,4 % på standardriktmärken och visar konkurrenskraftig prestanda på segmenteringsuppgift. | SpiderCNN REF definierar en kontinuerlig kärnfunktion som en produkt av stegfunktion och en Taylor polyno-mial. | 4,536,146 | SpiderCNN: Deep Learning on Point Sets with Parameterized Convolutional Filters | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 360 |
Abstrakt. Vi anser icke-deterministiska probabilistiska program med de mest grundläggande levande egendom uppsägning. Vi presenterar effektiva metoder för att avsluta analys av icke-deterministiska probabilistiska program med polynom vakter och uppdrag. Vårt tillvägagångssätt är genom syntes av polynom rankning supermartingales, som å ena sidan signifikant generaliserar linjär rankning supermartingales och å andra sidan är en motsvarighet till polynomial rankning-funktioner för att bevisa avslutande av icke-probabilistiska program. Metoden synthesizes polynomial ranking-supermartingales genom Positivstellensatz s, vilket ger en effektiv metod som inte bara är ljud, men också semi-fullborda över en stor underklass av program. Vi visar experimentella resultat för att visa att vår strategi kan hantera flera klassiska program med komplexa polynom vakter och uppdrag, och kan syntetisera effektiva quadratic ranking-supermartingales när en linjär inte finns ens för enkla afffin program. | Mer allmänna metoder REF kan synthesize polynomial ranking-supermartingales för att bevisa uppsägning. | 2,098,319 | Termination Analysis of Probabilistic Programs through Positivstellensatz's | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 361 |
Alexis Mignon, Frédéric Jurie. PCCA: Ett nytt tillvägagångssätt för distansundervisning från glesa parvisa begränsningar. I detta dokument introduceras Pairwise Constomized Component Analysis (PCCA), en ny algoritm för att lära sig distansmått från glesa parvisa likhet / olikartade begränsningar i högdimensionellt ingångsutrymme, problem för vilka de flesta befintliga distans metrisk inlärningsmetoder inte är anpassade. PCCA lär sig en projektion in i ett lågdimensionellt utrymme där avståndet mellan par av datapunkter respekterar de önskade begränsningarna och uppvisar goda generaliseringsegenskaper i närvaro av data med hög dimension. I dokumentet visas också hur man effektivt kan finjustera tillvägagångssättet. PCCA är experimentellt validerat på två utmanande visionsuppgifter, ansiktsverifiering och personidentifiering, för vilka vi får toppmoderna resultat. | Dessutom föreslog Mignon och Jurie Parwise Constomed Component Analysis (PCCA) för att projicera de ursprungliga data i en lägre dimension utrymme REF, där avståndet mellan par har de önskade egenskaperna. | 425,268 | PCCA: A new approach for distance learning from sparse pairwise constraints | {'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 362 |
Vi anser att ett linjärt stokastiskt banditproblem där dimensionen K av den okända parametern är större än provtagningsbudgeten n. Eftersom vanliga linjära banditalgoritmer har ett beklagande av ordningen O(K ε n), är det i allmänhet omöjligt att få en sub-linjär ånger utan vidare antagande. I detta dokument utgår vi från att det är S-sparse, d.v.s. har som mest S-non-noll komponenter, och att uppsättningen av armar är enheten bollen för de två normen. Vi kombinerar idéer från Compressed Sensing och Bandit Theory för att härleda en algoritm med en ånger bunden i O (S ε n). Vi beskriver en tillämpning på problemet med att optimera en funktion som beror på många variabler men där endast ett litet antal av dem (till en början okända) är relevanta. | På samma sätt beaktade REF också de högdimensionella stokastiska linjära banditerna med gleshet, som kombinerar idéerna från komprimerad avkänning och banditteori. | 7,380,181 | Bandit Theory meets Compressed Sensing for high dimensional Stochastic Linear Bandit | {'venue': 'AISTATS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 363 |
Det har varit en explosion av arbete i vision & språk gemenskapen under de senaste åren från bildtextning till video transkription, och svara på frågor om bilder. Dessa uppgifter har varit inriktade på bokstavliga beskrivningar av bilden. För att gå bortom det bokstavliga väljer vi att undersöka hur frågor om en bild ofta riktas mot allmängiltiga slutsatser och de abstrakta händelser som framkallas av objekt i bilden. I detta dokument introducerar vi den nya uppgiften Visual Question Generation (VQG), där systemet har till uppgift att ställa en naturlig och engagerande fråga när det visas en bild. Vi tillhandahåller tre datauppsättningar som täcker en mängd olika bilder från objekt-centrerade till händelse-centrerade, med betydligt mer abstrakta träningsdata än vad som hittills tillhandahållits till toppmoderna bildtextsystem. Vi utbildar och testar flera generativa och hämtningsmodeller för att ta itu med VQG:s uppgift. Utvärderingsresultat visar att även om sådana modeller ställer rimliga frågor för en mängd olika bilder, finns det fortfarande ett stort gap med mänskliga prestationer som motiverar ytterligare arbete med att koppla samman bilder med allmän kunskap och pragmatiska. Vår föreslagna uppgift innebär en ny utmaning för samhället som vi hoppas ökar intresset för att utforska djupare kopplingar mellan vision och språk. | Visuell frågegenerering studerades också i REF, med tonvikt på att generera frågor om bilder som är bortom det bokstavliga visuella innehållet i bilden. | 16,227,864 | Generating Natural Questions About an Image | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 364 |
Vi jämför användningen av ett digitalt bibliotek med många olika kategorier av samlingar, genom att undersöka dess loggfiler under en period av tjugo månader, och vi drar slutsatsen att de åtkomstpunkter som användarna mest hänvisar till, beror i hög grad på typen av innehåll i samlingen, detaljerna i befintliga metadata och målgruppen. Vi fann också att de flesta användare tenderar att använda enkla frågestrukturer (t.ex. Endast en sökterm) och mycket få och primitiva operationer för att uppfylla deras begäran. Dessutom, när de får mer erfarenhet, minskar de antalet operationer i sina sessioner. | Sfakakis och Kapidakis REF jämfört 2002 med användningen av ett digitalt bibliotek med många olika kategorier av samlingar som drar slutsatsen att åtkomstpunkterna som användarna främst hänvisar till är starkt beroende av typen av innehåll i samlingen, detaljerna i befintliga metadata och målgruppen. | 16,602,535 | User behavior tendencies on data collections in a digital library | {'venue': 'In: Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 365 |
I sensornätverk är analys av strömförbrukning innan faktisk driftsättning avgörande för att maximera servicelivslängden. I detta dokument föreslås en estimator på instruktionsnivå (IPEN) för sensornätverk. IPEN är ett exakt och finkornigt estimeringsverktyg med hjälp av en simulator på instruktionsnivå. Det är oberoende av operativsystemet, så många olika typer av sensor nod programvara kan simuleras för uppskattning. Vi har utvecklat en Micaz-kompatibel mote-modell. Energiförbrukningen hos ATmega128L microcontroller är modellerad med basenergikostnaden och instruktionen overheads. Kommunikationskomponenten CC2420 och andra kringutrustningar är modellerade efter drifttillstånd. Energiförbrukningsberäkningsmodulen profilerar perifer åtkomst och funktionsanrop medan en applikation körs. IPEN har visat utmärkt noggrannhet effektuppskattning, med mindre än 5% skattningsfel jämfört med verklig sensor nätverk implementation. Med IPEN:s energiprognoser på hög precisionsnivå kan användarna exakt uppskatta ett sensornätverks energiförbrukning och uppnå finkornig optimering av sin programvara. | NQEM är simulator för högfidelitetsinstruktion, och den kan utökas till effektuppskattaren REF. | 56,101,461 | Instruction-Level Power Estimator for Sensor Networks | {'venue': None, 'journal': 'Etri Journal', 'mag_field_of_study': ['Computer Science']} | 366 |
Mängden sekvensinformation i offentliga arkiv ökar snabbt. Även om dessa data sannolikt kommer att innehålla kliniskt viktig information som ännu inte har upptäckts, vår förmåga att effektivt minera dessa databaser är begränsad. Här introducerar vi Sequence Bloom Trees (SBT), en metod för att fråga tusentals kortlästa sekvenseringsexperiment efter sekvens, 162 gånger snabbare än befintliga tillvägagångssätt. Tillvägagångssättet söker stora dataarkiv för alla experiment som involverar en given sekvens. Vi använder SBTs för att söka 2.652 mänskliga blod, bröst och hjärna RNA-seq experiment för alla 214.293 kända transkript på under 4 dagar med mindre än 239 MB RAM och en enda CPU. Att söka sekvensarkiv i denna skala och i denna tidsram är för närvarande inte möjligt med hjälp av befintliga verktyg. National Institutes of Health (NIH) Sequence Read Archive (SRA) 1 innehåller ~3 petabaser av sekvensinformation som kan användas för att besvara biologiska frågor som enstaka experiment inte har befogenhet att ta itu med. Att söka i hela en sådan databas efter en sekvens har dock inte varit möjligt i rimlig beräkningstid. Vissa framsteg har gjorts mot att möjliggöra sekvenssökningar på stora databaser. NIH SRA ger en sekvens sökning funktionalitet 2 ; dock är sökningen begränsad till ett begränsat antal experiment. Befintliga fulltext indexering datastrukturer såsom Burrows-Wheeler transform 3, FM-index 4 eller andra 5-7 är för närvarande oförmögna att minera data av denna skala. Word-baserade index 8, 9, såsom de som används av internet sökmotorer, är inte lämpliga för editdistans-baserade biologiska sekvens sökningar. Den sekvensspecifika lösningen caBLAST och dess varianter 10-12 kräver ett index av kända genom, gener eller proteiner, och kan därför inte söka efter nya sekvenser. Dessutom kan ingen av dessa befintliga metoder matcha en frågesekvens q som spänner över många korta avläsningar. Här använder vi en indexeringsdatastruktur, Sequence Bloom Tree (SBT), för att identifiera alla experiment i en databas som innehåller en given frågesekvens q. En fråga är en godtycklig sekvens, såsom en utskrift. SBT-indexet är oberoende av eventuella frågor, så metoden är inte begränsad till att söka efter kända sekvenser, och indexet kan effektivt byggas och lagras i begränsat utrymme. Det kräver inte heller att originalsekvensfilerna behålls och kan distribueras separat från data. SBT är dynamiska, vilket möjliggör införande och radering av nya experiment. En grovkornig version av en SBT kan laddas ner och därefter förfinas eftersom mer specifika resultat behövs. De kan sökas med hjälp av lågt minne för existensen av godtyckliga frågesekvenser. Vi visar att SBTs kan söka stora samlingar av RNA-seq experiment för en given transkript order av magnitud snabbare än befintliga metoder. RESULTAT SBTs skapa en hierarki av komprimerade blomfilter 13, 14, som effektivt lagra en uppsättning objekt. Varje blomfilter innehåller den uppsättning k-mers (längd-k subsekvenser) som finns i en delmängd av sekvenseringsförsöken. SBT är binära träd där sekvenseringsförsöken är förknippade med blad, och varje nod v i SBT innehåller ett blomfilter som innehåller den uppsättning k-mers som finns i varje avläsning i varje experiment i underträdet rotat vid v (Supplementary Fig. 1).................................................................. Vi minskade utrymmet användning genom att använda blomfilter som komprimeras av RRR 15 komprimeringsschema (Online Methods). Hierarkier av blomfilter har använts för datahantering på distribuerade system 16. Men de har inte tidigare tillämpats på sekvenssökning, och vi finner att detta gör att vi kan justera blomfilter felfrekvensen mycket högre än i andra sammanhang (Theorem 2, Online Methods), kraftigt minska utrymmeskraven. Bloom filter har också använts för att lagra implicita de Bruijn grafer 17,18, och en vy av SBTs är som en generalisering av detta till flera grafer. Vi använde SBT för att söka RNA-seq experiment för uttryckta isoformer. Vi byggde ett SBT på 2.652 RNA-seq experiment i SRA för humant blod, bröst och hjärnvävnad ( Kompletterande tabell 1). Hela SBT krävde endast 200 GB (2,3% av storleken på de ursprungliga sekvenseringsdata) ( Kompletterande tabell 2 ). För dessa uppgifter tog byggandet av trädet 2,5 min per fil (kompletterande tabell 3). Dessa experiment kunde sökas för en enda utskrift fråga i, i genomsnitt, 20 min (Fig. 1), med användning av mindre än 239 MB RAM med en enda tråd (Online Methods). Vi uppskattar den jämförbara söktiden med hjälp av SRA-BLAST 2 eller kartläggning av STAR 19 att vara 2,2 d respektive 921 d, respektive (Online Methods), men SRA-BLAST och STAR returanpassningar medan SBT inte gör det. Men även en mycket snabb anpassning såsom STAR kan inte identifiera frågeinnehållande experiment så snabbt som SBT. Vi testade också satser av 100 frågor och fann SBT var en uppskattad 4 056 gånger snabbare än en batched version av kartläggningen 3 0 1 metod (kompletterande bild. 2).................................................................. Dessa frågor utfördes över varierande känslighetströskel (minimifraktionen av frågek-mers som måste finnas för att returnera en "hit") samt utskrifter per miljon (TPM) tröskel som används för att välja frågeuppsättningen ( Kompletterande figurer. 3 och 4). För ungefär hälften av frågorna gav de övre nivåerna i SBT-hierarkin betydande fördelar, särskilt när det gällde frågor som inte uttrycktes i något experiment (Supplementary Fig. 5 och kompletterande tabell 4. SBT kan påskynda användningen av algoritmer, såsom STAR eller SRA-BLAST, genom att först utesluta experiment där frågesekvenserna inte är närvarande. Detta gör det möjligt för efterföljande behandlingstid att skala med storleken på antalet träffar snarare än storleken på databasen. Vi använde först SBT för att filtrera hela datasetet bestående av 2.652 mänskliga blod-, bröst- och hjärn-RNA-seq-experiment. Vi jämförde sedan prestandan hos STAR eller SRA-BLAST på den filtrerade datasetet med tiden att bearbeta den ofiltrerade datasetet med dessa algoritmer. Genom att använda SBT för att först filtrera data minskades den totala frågetiden för STAR eller SRA-BLAST med en faktor på 3 (kompletterande bild. 6).................................................................. För att analysera noggrannheten hos SBT-filtret, jämförde vi de experiment som returnerades av SBT med de där frågesekvensen uppskattades uttryckas med hjälp av Sailfish 20. Eftersom det är opraktiskt att använda befintliga verktyg för att uppskatta uttryck över hela uppsättningen experiment, vi frågade hela trädet, men uppskattad noggrannhet på en uppsättning av 100 slumpmässiga filer som vi körde Sailfish (Fig. 2).................................................................. Tre samlingar av representativa frågor konstruerades med hjälp av Sailfish, betecknad av Hög, Medium och Låg, som inkluderade utskrifter av längd > 1000 nt som sannolikt skulle uttryckas på en högre, medium eller låg nivå i minst ett experiment som ingår i uppsättningen av 100 experiment på vilken Sailfish kördes. Den höga uppsättningen valdes till 100 slumpmässiga transkript med ett uppskattat överflöd av > 1000 TPM i minst ett experiment. De Medium och Low frågeuppsättningar valdes på liknande sätt slumpmässigt bland utskrifter med >500 och >100 TPM, respektive. Dessa Sailfish uppskattningar togs som den grundläggande sanningen i uttryck för frågeutskrifterna. Både falska positiva och falska negativa kan uppstå från en missmatchning mellan SBT definition av närvarande (täckning av k-mers över en tillräcklig bråkdel av frågan) och Sailfish definition av uttryckt (beräknas genom läsning kartläggning och en förväntan-maximization inference). Dessa två definitioner är relaterade, men inte helt i linje, vilket resulterar i en viss oenighet som kvantifieras av de falskt positiva satserna (FPR) och falskt negativa satserna i figur 2. De observerade falska negativa är främst drivs av några avvikande frågor för vilka SBT rapporterar inga resultat men deras uttryck är över TPM-tröskeln som uppskattas av Sailfish. Detta stöds av det faktum att den genomsnittliga true-positiva takten på till = 0.7 för frågor som returnerar minst en fil var 96-100%, och medianen true-positiva frekvensen i alla frågor var 100% för alla utom den strängaste till (Fig. 2).................................................................. Vi använde SBT för att söka alla blod, hjärna och bröst SRA sekvensering körs för att uttrycka alla 214.293 kända mänskliga transkript och använde dessa resultat för att identifiera vävnadsspecifika transkript ( Kompletterande tabell 5 och Kompletterande bild. 7)................................................................. Denna sökning tog 3.3 d med hjälp av en enda tråd (kompletterande bild. 8 ) och 8.............................................................................................................. Det finns för närvarande ingen sökning eller anpassning verktyg som kan lösa denna skala av sekvenssökning problem i en rimlig tidsram, men vi uppskattar en likvärdig sökning med Sailfish skulle ta 92 d. Hastigheten och beräkningseffektivitet SBTs kommer att göra det möjligt både enskilda laboratorier och sekvensering center för att stödja storskaliga sekvens sökningar, inte bara för RNA-seq data, men för genomiska och metagenomiska samlingar också. Forskare kan söka efter förhållanden bland tusentals som sannolikt kommer att uttrycka en viss ny isoform eller använda SBT för att identifiera metagenomiska prover som sannolikt kommer att innehålla en viss bakteriestam. Snabb sökning av denna typ kommer att vara avgörande för att på ett bra sätt utnyttja den ständigt växande insamlingen av tillgängliga sekvensdata. För närvarande är det svårt att få tillgång till alla relevanta uppgifter om en viss forskningsfråga från tillgängliga sekvenseringsförsök. Enskilda sjukhus, sekvenseringscenter, forskningskonsortier och forskargrupper samlar in data i snabb takt och står inför samma svårighet att inte snabbt kunna testa beräkningshypoteser eller att hitta de relevanta förutsättningarna för ytterligare studier. SBT möjliggör effektiv gruvdrift av dessa data och kan användas för att avslöja biologiska insikter som endast kan avslöjas genom analys av flera datamängder från olika källor. Dessutom kräver SBT inte förkunskaper om sekvenser av intresse, vilket gör det möjligt att identifiera, till exempel, uttryck av okända isoformer eller långa icke-kodande RNA. Denna algoritm gör det praktiskt att söka stora sekvensering arkiv och kan öppna upp nya användningsområden för dessa rika samlingar av data. ( 1 5 - t h r e d) Tid (min) Figur 1 Beräknade körtider för sökverktyg för en utskrift. SBT per query tid spelades in med maximalt ett enda filter i aktivt minne och en tråd. De andra barerna visar den beräknade tiden för att uppnå samma frågeresultat med hjälp av SRA-BLAST och STAR. | Experimentet upptäckt problem ställdes först av Solomon och Kingsford REF, där de introducerade sekvens Bloom träd (SBT). | 18,391,638 | Fast search of thousands of short-read sequencing experiments | {'venue': 'Nature Biotechnology', 'journal': 'Nature Biotechnology', 'mag_field_of_study': ['Biology', 'Medicine']} | 367 |
Abstrakt. En av de viktigaste skillnaderna mellan människans inlärningsmekanism och artificiella neurala nätverk (ANN) är människans förmåga att lära sig en uppgift i taget. Å andra sidan kan ANN bara lära sig flera uppgifter samtidigt. Alla försök att lära sig nya uppgifter gradvis får dem att helt glömma bort tidigare uppgifter. Denna brist på förmåga att lära sig stegvis, kallas Katastrof Glömta, anses vara ett stort hinder för att bygga en sann AI-system. I detta dokument är vårt mål att isolera de verkligt effektiva befintliga idéerna för inkrementellt lärande från dem som bara fungerar under vissa förhållanden. I detta syfte analyserar vi först noggrant den nuvarande teknikens (iCARL) metod för inkrementellt lärande och visar att systemets goda prestanda inte beror på de skäl som presenteras i den befintliga litteraturen. Vi drar slutsatsen att framgången för iCARL främst beror på kunskapsdestillering och erkänner en viktig begränsning av kunskapsdestillering, d.v.s. det leder ofta till partiskhet i klassificeringar. Slutligen föreslår vi en dynamisk tröskelrörlig algoritm som framgångsrikt kan ta bort denna skevhet. Vi demonstrerar effektiviteten av vår algoritm på CIFAR100 och MNIST datauppsättningar som visar nära optimala resultat. Vårt genomförande finns på https://github.com/Khurramjaved96/ inkrementellt lärande. | På samma sätt lär sig Javed och Shafait REF en end-to-end klassifier genom att föreslå en dynamisk algoritm för tröskelrörelser. | 49,655,438 | Revisiting Distillation and Incremental Classifier Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 368 |
Tre viktiga kriterier är viktiga för verksamhetsplanering, bland annat: 1) att hitta en grupp deltagare som känner till initiativtagaren, 2) att se till att varje deltagare i gruppen har nära sociala relationer med de flesta medlemmarna i gruppen, och 3) att välja en aktivitetsperiod som är tillgänglig för alla deltagare. Därför föreslås i detta dokument Social-Temporal Group Query att hitta aktivitetstiden och deltagarna med minsta totala sociala avstånd till initiativtagaren. Dessutom innehåller denna fråga ett bekantskapstryck för att undvika att hitta en grupp med ömsesidigt obekanta deltagare. Effektiv behandling av den sociala-temporala gruppfrågan är mycket utmanande. Vi visar att problemet är NP-hård via ett bevis och formulera problemet med Integer Programming. Vi föreslår sedan två effektiva algoritmer, SGSelect och STGSelect, som inkluderar effektiva beskärningstekniker och använder idén om pivottidsslots för att avsevärt minska körtiden, för att hitta de optimala lösningarna. Experimentella resultat visar att de föreslagna algoritmerna är mycket mer effektiva och skalbara. I jämförelsen av lösningskvalitet visar vi att STGSelect överträffar algoritmen som representerar manuell samordning av initiativtagaren. | Yang m.fl. REF försöker hitta en grupp deltagare som känner till en viss aktivitetsinitiering, och se till att varje deltagare i gruppen har nära sociala relationer med de flesta medlemmarna i gruppen. | 12,382,263 | On Social-Temporal Group Query with Acquaintance Constraint | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 369 |
Outsourcing av personlig hälsa rekord (PHR) har väckt stort intresse nyligen. Det kan inte bara ge patienterna stor bekvämlighet, det möjliggör också ett effektivt utbyte av medicinsk information mellan forskare. Eftersom de medicinska uppgifterna i PHR är känsliga måste de krypteras innan de läggs ut på entreprenad. Att uppnå finkornig åtkomstkontroll över krypterade PHR-data blir ett utmanande problem. I detta dokument ger vi en positiv lösning på detta problem. Vi föreslår ett nytt PHR-tjänstsystem som stöder effektiv sökning och finkornig åtkomstkontroll för PHR-data i en hybridmolnmiljö, där ett privat moln används för att hjälpa användaren att interagera med det offentliga molnet för behandling av PHR-data. I vår föreslagna lösning använder vi attributbaserad krypteringsteknik (ABE) för att få finkornig åtkomstkontroll för PHR-data. För att skydda PHR-ägarnas integritet är vår ABE anonym. Det vill säga, det kan dölja informationen om åtkomstpolicyn i chiffertexter. Samtidigt kan vår lösning också möjliggöra effektiv fuzzy sökning över PHR-data, vilket avsevärt kan förbättra systemets användbarhet. Vi tillhandahåller också säkerhetsanalys för att visa Fatos Xhafa (korresponderande författare ) att den föreslagna lösningen är säker och integritetsbevarande. De experimentella resultaten visar hur effektivt det föreslagna systemet är. | I en annan studie föreslog REF ett PHR-tjänstsystem för effektiv sökning, finkornig åtkomstkontroll och PHR-datadelning med anonym ABE i hybridmolnsmiljön. | 28,993,394 | An efficient PHR service system supporting fuzzy keyword search and fine-grained access control | {'venue': None, 'journal': 'Soft Computing', 'mag_field_of_study': ['Computer Science']} | 370 |
Automatisk programförståelse är särskilt användbar när det tillämpas på glesa matriskoder, eftersom det gör det möjligt att abstrakt t.ex. från särskilda lagringsformat för sparsam matrix som används i koden. I denna uppsats beskriver vi SPARAMAT, ett system för spekulativ automatisk programförståelse som lämpar sig för glesa matriskoder, och dess genomförande. | Kebler och Smith REF beskrev ett system, SPARAMAT, för begreppsförståelse som är särskilt lämplig för glesa matriskoder. | 11,294,367 | The SPARAMAT approach to automatic comprehension of sparse matrix computations | {'venue': 'Proceedings Seventh International Workshop on Program Comprehension', 'journal': 'Proceedings Seventh International Workshop on Program Comprehension', 'mag_field_of_study': ['Computer Science']} | 371 |
World-Wide Web består av ett stort antal ostrukturerade dokument, men innehåller också strukturerade data i form av HTML-tabeller. Vi tog fram 14,1 miljarder HTML-tabeller från Googles allmänna web crawl, och använde statistiska klassificeringstekniker för att hitta de uppskattade 154M som innehåller högkvalitativa relationsdata. Eftersom varje relationstabell har sin egen "schema" av märkta och skrivna kolumner, kan varje sådan tabell betraktas som en liten strukturerad databas. Den resulterande corpus av databaser är större än någon annan corpus vi är medvetna om, av minst fem storleksordningar. Vi beskriver Webtables systemet för att undersöka två grundläggande frågor om denna samling av databaser. För det första, vad är effektiva tekniker för att söka efter strukturerade data på sökmotorskalor? För det andra, vilken ytterligare kraft kan härledas genom att analysera en sådan enorm corpus? För det första utvecklar vi nya tekniker för sökordssökning över en corpus av tabeller, och visar att de kan uppnå betydligt högre relevans än lösningar baserade på en traditionell sökmotor. För det andra introducerar vi ett nytt objekt som härletts från databasen corpus: attributet korrelationsstatistik databas (AcsDB) som registrerar corpus-omfattande statistik om kooccurses av schema element. Förutom att förbättra sökrelevansen, gör AcsDB möjligt flera nya applikationer: schema auto-komplett, vilket hjälper en databas designer att välja schema element; attribut synonym fynd, som automatiskt beräknar attribut synonym par för schema matchning; och sucit-graph traversal, som gör det möjligt för en användare att navigera mellan extraherade scheman med hjälp av automatiskt genererade gå länkar. | Cafarella et al REF byggde en sökmotor baserad på en corpus på 14,1 miljarder HTML-tabeller. | 15,642,206 | WebTables: exploring the power of tables on the web | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 372 |
Vi analyserar rapporterade patcher för tre befintliga genero-andvalidate patch genereringssystem (GenProg, RSRepair, och AE). Den grundläggande principen bakom generera-och-validat system är att acceptera endast rimliga patchar som ger korrekta utgångar för alla ingångar i valideringstestssviten. På grund av fel i infrastrukturen för patchutvärdering är majoriteten av de rapporterade patchar inte rimliga att de inte ger korrekta resultat ens för indata i valideringstestssviten. Den överväldigande majoriteten av de rapporterade patchar är inte korrekt och är likvärdiga med en enda ändring som helt enkelt tar bort funktionalitet. Observerade negativa effekter inkluderar införande av säkerhetssårbarheter och eliminering av önskvärd funktionalitet. Vi presenterar också Kali, en generera-och-validate patch genereringssystem som bara tar bort funktionalitet. Kali arbetar med ett enklare och mer effektivt fokuserat sökområde och genererar minst lika många korrekta patcher som tidigare GenProg-, RSRepair- och AE-system. Kali genererar också minst lika många patchar som ger korrekta utgångar för ingångarna i valideringstestssviten som de tre tidigare systemen. Vi diskuterar också de patchar som produceras av ClearView, en generera-och-validat binära hot patching system som utnyttjar lärda invarianter för att producera patchar som gör det möjligt för system att överleva annars dödliga defekter och säkerhetsattacker. Vår analys visar att ClearView framgångsrikt patchs 9 av de 10 säkerhetssårbarheter som används för att utvärdera systemet. Minst 4 av dessa plåster är korrekta. | Tidigare arbete visar att, i motsats till designprincipen för GenProg, RSRepair, och AE, majoriteten av rapporterade fläckar av dessa tre system är osannolika på grund av fel i patchvalideringen REF. | 6,845,282 | An analysis of patch plausibility and correctness for generate-and-validate patch generation systems | {'venue': 'ISSTA 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 373 |
Abstrakt. Taint-tracking växer fram som en allmän teknik inom programvarusäkerhet för att komplettera virtualisering och statisk analys. Det har tillämpats för korrekt upptäckt av ett brett spektrum av attacker på godartad programvara, liksom i malware försvar. Även om det är ganska robust för att ta itu med det tidigare problemet, tillämpning av fläckanalys på opålitliga (och potentiellt skadliga) programvara är full av flera svårigheter som leder till gapande hål i försvaret. Dessa hål uppstår inte bara på grund av begränsningarna i informationsflöde analys tekniker, men också karaktären av dagens programvaruarkitekturer och distributionsmodeller. Detta papper belyser dessa problem med hjälp av en rad enkla men kraftfulla undandragande tekniker som lätt kan besegra fläck-tracking försvar. Med tanke på dagens binär-baserade programdistribution och distribution modeller, våra resultat tyder på att informationsflöde tekniker kommer att vara av begränsad användning mot framtida malware som har utformats i syfte att undvika dessa försvar. | REF beskriver de metoder för att undvika skatteundandragande som lätt kan besegra dynamisk analys av informationsflödet med hjälp av kontrollberoenden. | 7,068,075 | On the limits of information flow techniques for malware analysis and containment | {'venue': 'In DIMVA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 374 |
Abstract-This paper fokuserar på skalbarhet och robusthet av spektralkluster för extremt storskaliga dataset med begränsade resurser. Två nya algoritmer föreslås, nämligen ultraskalbar spektralklustring (U-SPEC) och ultraskalbar ensembleklustring (U-SENC). I U-SPEC föreslås en hybrid representativ urvalsstrategi och en snabb approximationsmetod för K-nearest representanter för byggandet av en sparsam affinitet sub-matris. Genom att tolka sparse sub-matrisen som en bipartite graf, överförs klippet används sedan för att effektivt partitionera grafen och få klusterresultatet. I U-SENC integreras flera U-SPEC kluster ytterligare i en ensemble klusterram för att öka robustheten i U-SPEC samtidigt som hög effektivitet upprätthålls. Baserat på ensemblegenerationen via flera U-SEPC:er, konstrueras en ny bipartitgraf mellan objekt och baskluster och delas sedan effektivt för att uppnå konsensusklusterresultatet. Det är värt att notera att både U-SPEC och U-SENC har nästan linjär tid och utrymme komplexitet, och kan robust och effektivt partitionera tio miljoner-nivå icke linjärt separerade datauppsättningar på en PC med 64GB minne. Experiment på olika storskaliga datauppsättningar har visat skalbarheten och robustheten hos våra algoritmer. MATLAB-koden och experimentella data finns på https://www.researchgate.net/publication/330760669. | För bättre prestanda av spektralkluster över storskaliga data med mycket begränsade resurser, Huang et al. REF konvertera sparse sub-matris som en bipartit graf och använda överförd klippa för att få klusterresultatet. | 67,855,861 | Ultra-Scalable Spectral Clustering and Ensemble Clustering | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 375 |
Sammanfattning Många verkliga applikationer avslöjar svårigheter med att lära sig klassificerare från obalanserade data. Även om flera metoder för att förbättra klassificeringen har införts, är identifieringen av förutsättningarna för en effektiv användning av den särskilda metoden fortfarande ett öppet forskningsproblem. Det är också värt att studera karaktären av obalanserade data, särdragen hos minoritetsklassens fördelning och deras påverkan på klassificeringens prestanda. Befintliga studier av obalanserade datasvårighetsfaktorer har dock huvudsakligen gjorts med artificiella dataset och deras slutsatser är inte lätta att tillämpa på de verkliga problemen, även eftersom metoderna för att identifiera dem inte är tillräckligt utvecklade. I vår tidning fångar vi svårigheter med klassdistribution i verkliga datauppsättningar genom att ta hänsyn till fyra typer av minoritetsklassexempel: säkra, gränslösa, sällsynta och avvikande. Först bekräftar vi deras förekomst i verkliga data genom att utforska flerdimensionella visualiseringar av utvalda datauppsättningar. Sedan introducerar vi en metod för att identifiera dessa typer av exempel, som bygger på att analysera en klassfördelning i ett lokalt område av det ansedda exemplet. Två sätt att modellera detta område presenteras: med k-nearest exempel och med kärnan funktioner. Experiment med artificiella dataset visar att dessa metoder kan återupptäckta simulerade typer av exempel. Nästa bidrag av detta dokument inkluderar att genomföra en omfattande experimentell studie med 26 verkliga världen obalanserade dataset, där (1) vi identifierar nya data egenskaper baserade på analys av typer av minoritetsexempel; (2) vi visar att med tanke på resultaten av denna analys gör det möjligt att differentiera klassificering prestanda populära klassificeringar och förbearbetningsmetoder och att utvärdera deras kompetensområden. Slutligen lyfter vi fram hur vi kan utnyttja resultaten av vår analys för att utveckla nya algoritmer för att lära sig klassificerare och förbearbetningsmetoder. | I en studie av Napierała och Stefanowski REF föreslog författarna en metod för kategorisering av olika typer av minoritetsobjekt. | 17,513,719 | Types of minority class examples and their influence on learning classifiers from imbalanced data | {'venue': 'Journal of Intelligent Information Systems', 'journal': 'Journal of Intelligent Information Systems', 'mag_field_of_study': ['Computer Science']} | 376 |
Nya studier visar att spänningsskalning, som är en effektiv energihanteringsteknik, har en direkt och negativ effekt på systemets tillförlitlighet på grund av den ökade hastigheten av övergående fel (t.ex. de som orsakas av kosmiska partiklar). I den här artikeln föreslår vi energiförvaltningssystem som uttryckligen tar hänsyn till systemets tillförlitlighet. De föreslagna tillförlitlighetsmedvetna energihanteringssystemen schemalägger dynamiskt återvinningar för uppgifter som ska skalas ned för att återställa tillförlitlighetsförlusten på grund av energihantering. Baserat på mängden tillgängliga slack, applikationens storlek, och felfrekvensen ändras, vi analyserar när det är lönsamt att återvinna slack för energibesparingar utan att offra systemets tillförlitlighet. Checkpoint teknik utforskas ytterligare för att effektivt använda slack. Analys- och simuleringsresultat visar att de föreslagna systemen kan uppnå jämförbara energibesparingar som vanliga energihanteringssystem (som är tillförlitlighetsneutrala) samtidigt som systemets tillförlitlighet bevaras. De vanliga energihanteringssystemen som ignorerar effekterna av spänningsskalning på förändringar i felfrekvensen kan leda till drastiskt minskad systemtillförlitlighet. | Zhu REF presenterade system för driftsäkerhetsmedveten energihantering som dynamiskt schemalägger felåterhämtningar för uppgifter för att kompensera för tillförlitlighetsförlust på grund av dynamisk spännings- och frekvensskalning. | 2,756,669 | Reliability-aware dynamic energy management in dependable embedded real-time systems | {'venue': 'TECS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 377 |
Abstract-The framväxande federated cloud paradigm förespråkar delning av resurser mellan molnleverantörer, för att utnyttja tidstillgänglighet av resurser och mångfald av operativa kostnader för jobbtjänst. Även om det finns omfattande studier om att möjliggöra interoperabilitet mellan olika molnplattformar, förblir en grundläggande fråga om molnekonomi obesvarad: När och hur bör ett moln handla virtuella maskiner med andra, så att dess nettovinst maximeras på lång sikt? För att kunna besvara denna fråga från förbundet måste ett antal viktiga, korrelerade beslut, inklusive jobbplanering, serverförsörjning och resursprissättning, göras dynamiskt, med långsiktig vinstoptimalitet som mål. I detta arbete designar vi effektiva algoritmer för inter-cloud resurshandel och schemaläggning i en federation av geo-distribuerade moln. För VM-handel med moln använder vi en dubbel auktionsbaserad mekanism som är strategisäker, individuell rationell och budgetbalanserad i efterhand. Koppling med auktionsmekanismen är en effektiv, dynamisk resurshandels- och schemaläggningsalgoritm, som noggrant bestämmer de verkliga värderingarna av virtuella maskiner i auktionen, optimalt schemalägger stokastiska jobb anlända med olika SLA på virtuella maskiner, och klokt slå på och stänga av servrar baserat på de nuvarande elpriserna. Genom noggrann analys visar vi att varje enskilt moln, genom att utföra vår dynamiska algoritm, kan uppnå en tidsgenomsnittlig vinst godtyckligt nära offline optimal. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF studerar resurshandeln mellan flera IaaS-moln och utformar en dubbelauktionsmekanism. | 11,022,899 | Profit-maximizing virtual machine trading in a federation of selfish clouds | {'venue': '2013 Proceedings IEEE INFOCOM', 'journal': '2013 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 378 |
Abstract-I detta papper, en elecrokardiogram (EKG) komprimeringsalgoritm, kallas analys genom syntes EKG kompressor (ASEC), införs. ASEC algoritmen är baserad på analys genom synteskodning, och består av en beat codebook, långa och kortsiktiga prediktorer, och en adaptiv rest quantizer. Kompressionsalgoritmen använder en definierad distorsionsmått för att effektivt koda varje hjärtslag, med minsta bithastighet, samtidigt som en förutbestämd distorsionsnivå bibehålls. Kompressionsalgoritmen genomfördes och testades med både den procentuella rms-skillnaden (PRD-måttet) och den nyligen införda viktade diagnostiska distorsionsmåttet (WDD). Kompressionsalgoritmen har utvärderats med MIT-BIH Arrytmidatabasen. En genomsnittlig kompressionshastighet på ca 100 bitar/s (kompressionsförhållande på ca 30 : 1) har uppnåtts med en god rekonstruerad signalkvalitet (WDD under 4% och PRD under 8%). ASEC jämfördes med flera välkända EKG-komprimeringsalgoritmer och befanns vara överlägsna vid alla testade bithastigheter. Ett test för genomsnittlig åsiktspoäng (MOS) användes också. Testerna var tre oberoende kardiologer. Liksom i det kvantitativa testet befanns den föreslagna komprimeringsalgoritmen vara överlägsen de andra testade komprimeringsalgoritmerna. | En ECG komprimeringsalgoritm, kallad Analys av Synthesis EKG kompressor (ASEC), har införts i REF. | 7,689,233 | ECG signal compression using analysis by synthesis coding | {'venue': 'IEEE Transactions on Biomedical Engineering', 'journal': 'IEEE Transactions on Biomedical Engineering', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 379 |
I den senaste utvecklingen av avioniksystem, Integrated Modular Avionics (IMA) förespråkas för nästa generations arkitektur som behöver integration av blandkritiska realtidsapplikationer. Dessa integrerade applikationer uppfyller sina egna tidsbegränsningar samtidigt som de delar avionik datorresurser. För att garantera tidsbegränsningar och tillförlitlighet för varje tillämpning är ett IMA-baserat system utrustat med system för rumslig och tidsmässig partitionering. Vi kallar modellen SP-RTS (Starkly Partitioned Real-Time System), som behandlar processorpartitioner och kommunikationskanaler som dess grundläggande schemaläggningsenheter. I detta dokument presenteras en partition och kanalschemaläggningsalgoritm för SP-RTS. Den grundläggande idén med algoritmen är att använda ett hierarkiskt schema på två nivåer som aktiverar partitioner (eller kanaler) efter ett avståndsbegränsningar garanterat cykliskt schema och sedan skickar uppgifter (eller meddelanden) enligt ett fast prioritetsschema. För att förbättra schedulability, vi utformade heuristiska algoritmer för deadline nedbrytning och kanalkombinering. Simuleringsresultaten visar schemaläggningsanalysen av algoritmen för schemaläggning på två nivåer och de positiva egenskaperna hos den föreslagna deadline sönderdelningen och kanalkombinationen av algoritmer. | Lee och Al. REF presenterade en partitions- och kanalschemaläggningsalgoritm för det starka partitionerade realtidssystemet. | 920,212 | Resource scheduling in dependable integrated modular avionics | {'venue': 'Proceeding International Conference on Dependable Systems and Networks. DSN 2000', 'journal': 'Proceeding International Conference on Dependable Systems and Networks. DSN 2000', 'mag_field_of_study': ['Computer Science']} | 380 |
Vi föreslår en metod för att identifiera användarnas allmänna ståndpunkter i onlinedebatter, dvs. stödja eller motsätta sig huvudämnet för en online-debatt, genom att utnyttja lokal information i sina kommentarer i debatten. En online-debatt är ett forum där varje användare lägger ut ett yttrande på ett visst ämne medan andra användare uppger sina positioner genom att publicera sina kommentarer i debatten. De stödjande eller motsatta kommentarerna görs genom att direkt svara på yttrandet, eller indirekt på andra kommentarer (för att uttrycka lokal enighet eller oenighet), vilket gör det svårt att identifiera användarnas allmänna ståndpunkter. En tidigare studie har visat att en länkbaserad metod, som helt bortser från innehållet i kommentarerna, kan uppnå högre noggrannhet för identifieringsuppgiften än metoder som enbart bygger på innehållet i kommentarerna. I detta dokument visar vi att användningen av textinnehållet i kommentarerna i den länkbaserade metoden kan ge högre noggrannhet i identifieringsuppgiften. | REF identifierar allmänna användaryttranden i onlinedebatter. | 18,151,048 | Support or Oppose? Classifying Positions in Online Debates from Reply Activities and Opinion Expressions | {'venue': 'COLING - POSTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 381 |
Vi föreslår det kopplade generativa kontrariska nätverket (CoGAN) ramverk för att generera par av motsvarande bilder i två olika domäner. Den består av ett par generativa kontradiktoriska nätverk, var och en ansvarig för att generera bilder i en domän. Vi visar att genom att genomdriva en enkel vikt-delning begränsning, CoGAN lär sig att generera par av motsvarande bilder utan att det finns några par av motsvarande bilder i de två områdena i träningssetet. Med andra ord, CoGAN lär sig en gemensam distribution av bilder i de två domänerna från bilder som dras separat från marginalfördelningarna av de enskilda domänerna. Detta står i kontrast till de befintliga multimodala generativa modellerna, som kräver motsvarande bilder för utbildning. Vi tillämpar CoGAN på flera par bildgenerering uppgifter. För varje uppgift lär sig GoGAN att generera övertygande par av motsvarande bilder. Vi demonstrerar vidare tillämpningarna av CoGAN-ramverket för domänanpassning och övergripande bildgenereringsuppgifter. | Par GAN REF par två GAN med delade vikter för att generera parade bildprover. | 10,627,900 | Coupled Generative Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 382 |
Text är inte ett oförfalskat faktum. En text kan få dig att skratta eller gråta, men kan det också få dig att blanka dina aktier i företag A och köpa upp alternativ i företag B? Forskning inom finansområdet tyder starkt på att den kan göra det. Studier har visat att både informations- och affektiva aspekter av nyhetstext påverkar marknaderna på ett djupgående sätt, vilket påverkar handelsvolymer, aktiekurser, volatilitet och även framtida företagsvinster. Syftet med detta dokument är att undersöka ett beräkningsbart mått av positiv eller negativ polaritet i finansiell nyhetstext som överensstämmer med mänskliga bedömningar och kan användas i en kvantitativ analys av nyhetskänslornas inverkan på finansmarknaderna. Resultaten från en preliminär utvärdering presenteras och diskuteras. | Detta liknar tidigare arbete av REF som utforskade ett beräkningsbart mått av positiv eller negativ polaritet i finansiell nyhetstext som överensstämmer med mänskliga bedömningar och kan användas i en kvantitativ analys av nyhetskänslors inverkan på finansmarknaderna. | 6,526,153 | Sentiment Polarity Identification in Financial News: A Cohesion-based Approach | {'venue': '45th Annual Meeting of the Association of Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 383 |
Abstrakt. Sopsamlare är notoriskt svåra att verifiera, på grund av deras låga nivå interaktion med det underliggande systemet och den allmänna svårigheten att resonera om nåbarhet i grafer. Flera papper har uppvisat verifierade samlare, men antingen var bevisen handskrivna eller samlarna alltför enkla att använda i praktiska tillämpningar. I detta arbete presenterar vi två mekaniskt verifierade sopsamlare, båda praktiska nog att använda för verkliga C# riktmärken. Insamlarna och deras tillhörande allokatorer består av instruktioner för x86 monteringsspråk och makroinstruktioner, kommenterade med förutsättningar, postvillkor, invarianter och påståenden. Vi använde Boogie verifiering generator och Z3 automatiserade teorem bevis för att verifiera denna montering språkkod mekaniskt. Vi tillhandahåller mätningar som jämför prestandan hos den verifierade samlaren med prestandan hos standard- Bartok-samlarna på off-the-shelf C#-riktmärken, vilket visar deras konkurrenskraft. | Hawblitzel och Petrank REF visar att performant verifierad x86-kod för enkla mark-and-sweep och Cheney kopiering samlare kan utvecklas med hjälp av Boogie verifiering villkor generator och Z3 automatiserade Theorem bevis. | 52,865,497 | Automated Verification of Practical Garbage Collectors | {'venue': 'LMCS 6 (3:6) 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 384 |
Automatiserad segmentering av grå materia av magnetisk resonanstomografi är nödvändig för morfometriska analyser av hjärnan, särskilt när stora provstorlekar undersöks. Även om upptäckt av små strukturella hjärnskillnader i grunden kan bero på den metod som används, har både noggrannhet och tillförlitlighet hos olika automatiserade segmenteringsalgoritmer sällan jämförts. Här kvantifierades prestandan hos de segmenteringsalgoritmer som tillhandahålls av SPM8, VBM8, FSL och FreeSurfer på simulerade och verkliga magnetiska resonanstomografidata. För det första bedömdes noggrannheten genom att man jämförde segmenteringar av tjugo simulerade och 18 verkliga T1-bilder med motsvarande sanningsbilder på marken. För det andra bestämdes tillförlitligheten i tio T1-bilder från samma ämne och i tio T1-bilder av olika försökspersoner skannade två gånger. För det tredje undersöktes förbehandlingens inverkan på segmenteringsnoggrannheten. VBM8 visade en mycket hög noggrannhet och en mycket hög tillförlitlighet. FSL uppnådde den högsta noggrannheten men visade dålig tillförlitlighet och FreeSurfer visade den lägsta noggrannheten, men hög tillförlitlighet. En allmänt giltig rekommendation om hur morfometriska analyser ska genomföras är inte motiverad på grund av det stora antalet avsöknings- och analysparametrar. Vår analys tyder dock på att forskare kan optimera sina individuella bearbetningsförfaranden med avseende på den slutliga segmenteringskvaliteten och exemplifierar lämpliga prestandakriterier. | Eggert et al. REF analyserade och diskuterade flera faktorer som kan påverka MRT-segmenteringen i termer av den slutliga segmenteringskvaliteten och specifika lämpliga prestandakriterier. | 6,018,270 | Accuracy and Reliability of Automated Gray Matter Segmentation Pathways on Real and Simulated Structural Magnetic Resonance Images of the Human Brain | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 385 |
Abstract-The IEEE 802.11e Medium Access Control (MAC) for Quality-of-Service (QoS) support in 802.11 networks definierar spricköverföring och nya ACC-operationer som valfria mekanismer för att öka kanalutnyttjandet. I detta papper undersöker vi hur prestanda av dessa nya funktioner påverkas av förekomsten av fiberfördröjning i höghastighets Wireless LAN (WLAN) över fibernätverk. Det visas att den negativa effekten av fiberfördröjningen på genomströmningsprestandan för 802.11 MAC-protokollet kan minskas avsevärt när spricköverföring används med blocket eller ingen ACK-policy. Index Terms-IEEE 802.11e, medium åtkomstkontroll, Radio över Fiber, trådlöst LAN. | I REF, författarna undersöker den inverkan som fiberfördröjning har på prestandan av erkännande policyer i fiber-fed WLANs. | 22,351,476 | Use of Different Acknowledgement Policies for Burst Transmission in Fiber-fed Wireless LANs | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']} | 386 |
Abstract-Web service teknik syftar till att möjliggöra samverkan mellan heterogena system och återanvändning av distribuerade funktioner i en aldrig tidigare skådad skala och har uppnått betydande framgång. Det finns dock fortfarande utmaningar att förverkliga sin fulla potential. En av dessa utmaningar är att säkerställa beteendet hos webbtjänster som överensstämmer med deras krav. Övervakning av händelser som är relevanta för krav på webbtjänster är därför en viktig teknik. I detta dokument införs en online-övervakningsmetod för krav på webbtjänster. Den innehåller en mönsterbaserad specifikation av tjänstebegränsningar som motsvarar servicekrav, och en övervakningsmodell som omfattar fem typer av systemhändelser som är relevanta för kundförfrågan, servicerespons, applikation, resurs och förvaltning, samt en övervakningsram där olika sonder och agenter samlar in händelser och data som är känsliga för krav. Ramverket analyserar den insamlade informationen mot de fördefinierade begränsningarna, för att utvärdera beteendet och användningen av webbtjänster. Prototypen implementation och experiment med en fallstudie visar att vår strategi är effektiv och flexibel, och övervakningskostnaden är överkomlig. | Författarna i Wang et al. REF inför en online-övervakningsmetod för webbtjänstkrav, där övervakningskoden är inbäddad i målkoden. | 11,942,877 | An Online Monitoring Approach for Web Service Requirements | {'venue': 'IEEE Transactions on Services Computing', 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']} | 387 |
I detta dokument föreslår vi en korrelerad och individuell multimodal djupinlärningsmetod (CIMDL) för RGB-D-objektigenkänning. Till skillnad från de flesta konventionella RGB-D objektigenkänningsmetoder som extraherar funktioner från RGB och djup kanaler individuellt, lär vår CIMDL gemensamt funktionen representationer från rå RGB-D data med ett par djupa neurala nätverk, så att den sharable och modal specifik information kan utnyttjas samtidigt och explicit. Speciellt konstruerar vi ett par djupa kvarvarande nätverk för RGB och djupdata, och omvandlar dem till det översta lagret i nätverket med en förlustfunktion som lär sig ett nytt funktionsutrymme där både den korrelerade delen och den enskilda delen av RGB-D-informationen är väl modellerade. Parametrarna för hela nätverken uppdateras med hjälp av kriteriet back-förökning. Experimentella resultat på två allmänt använda RGB-D-objektbildsriktmärkesdata visar tydligt att vår metod överträffar de flesta av de senaste metoderna. | Wang m.fl. REF får multimodal funktion genom att använda ett anpassat lager för att separera individuell och korrelerad information om de extraherade RGB- och djupfunktionerna. | 6,567,742 | Correlated and Individual Multi-Modal Deep Learning for RGB-D Object Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 388 |
I detta dokument föreslår vi "adversarial autoencoder" (AAE), som är en probabilistisk autoencoder som använder de nyligen föreslagna generativa kontrariska nätverken (GAN) för att utföra variationell inferens genom att matcha den aggregerade bakre delen av den dolda kodvektorn för autoencoder med en godtycklig tidigare distribution. Att matcha den aggregerade bakre delen med den föregående säkerställer att generera från någon del av tidigare utrymme resulterar i meningsfulla prover. Som ett resultat av detta lär sig avkodningen av den kontradiktoriska autoenkodern en djup generativ modell som kartlägger den påtvingade före datadistributionen. Vi visar hur den kontrariska autoenkodern kan användas i tillämpningar som semi-övervakad klassificering, disentangling stil och innehåll av bilder, oövervakad klusterbildning, dimensionalitetsreduktion och datavisualisering. Vi utförde experiment på MNIST, Street View House Numbers och Toronto Face datauppsättningar och visar att kontrariska autoencoders uppnå konkurrenskraftiga resultat i generativ modellering och semi-övervakade klassificering uppgifter. | Adversarial Autoencoders REF kombinerar GAN och VAE. | 5,092,785 | Adversarial Autoencoders | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 389 |
Abstract-This paper föreslår en lastbalanseringsalgoritm som bestämmer den optimala belastningen för varje värd för att minimera den totala genomsnittliga jobbresponstiden i ett distribuerat datorsystem som består av heterogena värdar. Algoritmen är en förenklad och lättförståelig version av enpunktsalgoritmen som ursprungligen presenterades av Tantawi och Towsley. Index Terms-Distribuerade datorsystem, lokala nätverk, optimal belastning, optimal statisk lastbalansering, enpunktsalgoritm, stjärnnätverkskonfigurationer. | Till exempel i REF föreslog Kim och Kameda en förenklad lastbalanseringsalgoritm, som syftar till att minimera den totala genomsnittliga jobbresponstiden genom att justera varje nods belastning i ett distribuerat datorsystem som består av heterogena värdar, baserat på den enpunktsalgoritm som ursprungligen presenterades av Tantawi och Towsley. | 18,337,053 | An algorithm for optimal static load balancing in distributed computer systems | {'venue': None, 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']} | 390 |
Abstrakt. Denna artikel visar hur User Requirements Notation (URN) kan användas för att modellera affärsprocesser. URN kombinerar mål och scenarier för att hjälpa till att fånga upp och resonera om användarkrav före detaljerad design. När det gäller tillämpningsområden är denna nya standard allmänt inriktad på reaktiva system, med särskild inriktning på telekommunikationssystem och telekommunikationstjänster. I denna artikel hävdas att URN också kan tillämpas på modellering av affärsprocesser. I detta syfte illustreras notation, användning och fördelar med en fallstudie om hantering av försörjningskedjan. Därefter jämförs detta tillvägagångssätt kortfattat med relaterade modelleringsmetoder, nämligen användning av fallbaserad design, tjänsteorienterad arkitekturanalys och konceptuell värdemodellering. Författarna hoppas att en URN-baserad metod kommer att ge användbara och användbara verktyg för att hjälpa forskare och praktiker med modellering, analys, integration och utveckling av befintliga och framväxande affärsprocesser. | Dessutom föreslås användning av User Requirements Notation för affärsmodellmodellering av Weiss och Amyot REF. | 15,792,852 | Business Process Modeling with URN | {'venue': 'International Journal of E-Business Research', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 391 |
Användningen av Flash-minnen i bärbara inbyggda system ökar ständigt. Detta beror på lagringskapaciteten på flera nivåer som gör dem utmärkta kandidater för minnesenheter med hög densitet. Men kostnaden för att skriva eller programmera Flash-minnen är en storleksordning som är högre än traditionella minnen. I den här artikeln designar vi en algoritm för att minska både genomsnittlig skrivenergi och latens i Flash-minnen. Vi uppnår detta genom att minska antalet dyra "01" och "10" bit-mönster under felkontrollkodning. Vi visar att algoritmen inte ändrar felkorrigeringsförmågan och dessutom förbättrar uthålligheten. Simuleringar resultat på representativa bit-stream spår visar att användningen av den föreslagna algoritmen sparar i genomsnitt 33% av skrivenergi och 31% av latens av Intel MLC NOR Flash minne, och förbättrar uthålligheten med 24%. | Referensreferensreferensen föreslog energimedvetna felkodningar för att minska skrivverksamhetens energi till NAND-blixtminne. | 13,896,691 | Energy-aware error control coding for Flash memories | {'venue': '2009 46th ACM/IEEE Design Automation Conference', 'journal': '2009 46th ACM/IEEE Design Automation Conference', 'mag_field_of_study': ['Computer Science']} | 392 |
Obila användare vill kunna få tillgång till och manipulera information och tjänster som är specifika för deras plats, tid och miljö. Sammanhangsinformation som samlas in från sensorer, nätverk, enhetsstatus, användarprofiler och andra källor kan förbättra mobila applikationers användbarhet genom att låta dem anpassa sig till förhållanden som direkt påverkar deras verksamhet. För att uppnå verklig kontextmedvetenhet måste dock mobila system producera tillförlitlig information i närvaro av osäkra, snabbt föränderliga, delvis sanna data från flera heterogena källor. Mobila enheter utrustade med lågkostnadssensoriska element kan känna igen vissa aspekter av sammanhanget. Att extrahera relevant kontextinformation genom att samla data från flera sensorer visar sig dock vara utmanande eftersom buller, felaktiga anslutningar, drift, felkalibrering, slitage, fuktighet och andra faktorer försämrar datainsamlingen. Utdragna sammanhang överlappar varandra, förändras med tiden och ger endast delvis tillförlitliga approximationer. Dessutom kräver mobila enheters dynamiska miljöer att vi lär oss kontextbeskrivningar från flerdimensionella data. Inlärningssystem kan dock inte enkelt generaliseras utöver träningsdata. Att använda till och med tillräckligt tillförlitliga härledda sammanhang direkt för att styra mobila applikationer skapar problem eftersom användare med olika idéer om "kontext" kan tycka att applikationens beteende är irriterande. För att möta dessa utmaningar presenterar vi ett enhetligt ramverk för mobilterminalprogramvara som ger systematiska metoder för att förvärva och bearbeta användbar kontextinformation från en användares omgivning och ge den till applikationer. Den ram vi presenterar tillåter erkännande av semantiska sammanhang i realtid i närvaro av osäker, bullrig och snabbt föränderlig information och att leverera sammanhang för terminaltillämpningarna på ett händelsebaserat sätt. Vårt programprogrammeringsgränssnitt (API) för att använda semantisk kontextinformation använder en expanderbar kontext ontologi för att definiera sammanhang som kunderna kan använda. Vi valde en blackboardbaserad metod 1 som det underliggande kommunikationsparadigmet mellan ramenheter. Vår strategi fokuserar på mobil terminalkapacitet snarare än infrastruktur. Därför utformade vi ramverket för plattformen Symbian (www.symbian). com) för att uppnå verklig rörlighet för enheter, hög prestanda och en bred användarbas. Fyra huvudsakliga funktionella enheter består av kon- | Sammanhangshanteringsramen (CMF) REF möjliggör ett semantiskt resonemang av sammanhanget i realtid och även i närvaro av buller, för osäkerhet, och en snabb variation i sammanhanget. | 206,480,358 | Managing Context Information in Mobile Devices | {'venue': 'IEEE Pervasive Comput.', 'journal': 'IEEE Pervasive Comput.', 'mag_field_of_study': ['Computer Science']} | 393 |
Abstrakt. Vi föreslår en enkel neural nätverksmodell för att hantera problemet med domänanpassning i objektigenkänning. Vår modell innehåller måttet Maximum Mean Discrepancy (MMD) som en legalisering i det övervakade lärandet för att minska fördelningen missmatchning mellan källan och måldomäner i latent utrymme. Från experiment, visar vi att MMD legalisering är ett effektivt verktyg för att ge bra domänanpassning modeller på både SURF-funktioner och rå bild pixlar av en viss bild data uppsättning. Vi visar också att vår föreslagna modell, som föregås av den denoiserande auto-encoder förutbildningen, uppnår bättre resultat än de senaste referensmodellerna på samma datamängder. Detta arbete representerar den första studien av MMD-mått i samband med neurala nätverk. | I REF (2014b) föreslogs en arkitektur som minimerar den maximala genomsnittliga skillnaden mellan käll- och målfördelningar. | 17,674,695 | Domain Adaptive Neural Networks for Object Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 394 |
Sekretessbevarande datafrågor för trådlösa sensornätverk (WSNs) har dragit mycket uppmärksamhet på senare tid. I detta dokument föreslås en integritetsbevarande MAX/MIN frågehanteringsmetod baserad på slumpvis säkert jämförelseval i två nivåer sensornätverk, som betecknas av RSCS-PMQ. Den hemliga jämförelsemodellen är byggd på grundval av den säkra jämförelsen som definieras av 0-1 kodning och HMAC. Och den minimala uppsättningen av högsta säkra jämförelseprodukter som genererar algoritm MaxRSC föreslås, vilket är nyckeln till att förverkliga RSCS-PMQ. I datainsamlingsförfarandena väljer sensornoden slumpmässigt en genererad säker jämförelse av maximal data i chiffertext som skickas till den närliggande masternoden. I procedurerna för frågebehandling använder masternoden MaxRSC-algoritmen för att bestämma motsvarande minimala uppsättning kandidat-chiffertexter som innehåller frågeresultaten och returnerar den till basstationen. Och basstationen får resultatet av rentextsökningen genom dekryptering. Teoretisk analys och experimentella resultat indikerar att RSCS-PMQ kan bevara integriteten hos sensordata och frågeresultat från masternoder även om de äventyras, och det har en bättre prestanda på nätverkskommunikationskostnaden än de befintliga metoderna. | Baserat på EMQP, en slumpmässig säker jämförelse valoptimering införs för att uppnå en effektivare integritetsbevarande MAX/MIN fråga (RSCS-PMQ) REF. | 26,882,908 | Random Secure Comparator Selection Based Privacy-Preserving MAX/MIN Query Processing in Two-Tiered Sensor Networks | {'venue': 'J. Sensors', 'journal': 'J. Sensors', 'mag_field_of_study': ['Computer Science']} | 395 |
Abstract-Den nya flexgrid tekniken, i motsats till det fasta rutnät som traditionellt används i våglängdskopplade optiska nätverk (WSON), gör det möjligt att fördela den spektral bandbredd som behövs för att förmedla heterogena klienten efterfrågan bitrates på ett flexibelt sätt så att det optiska spektrumet kan hanteras mycket mer effektivt. I det här dokumentet föreslår vi ett nytt återvinningssystem som kallas enkelriktad recovery (SPP-MPR), särskilt utformat för flexgridbaserade optiska nät. Den tillhandahåller enkla vägar för att tjäna den bitrate som efterfrågas av kunden krav och kombinerar skydds- och restaureringssystem för att gemensamt, delvis eller helt, återställa den bitrate i händelse av misslyckande. Vi definierar bitratepressade återvinningsoptimering (BRASERO) problem för att maximera bitrate som återvinns i händelse av fel på någon enda fiber länk. Ett blandat heltal linjär programmering (MILP) formulering tillhandahålls. Uttömmande numeriska experiment som utförts över två nättopologier och realistiska trafikscenarier visar att det föreslagna SPP-MPR-systemets effektivitet närmar sig återställandemekanismernas effektivitet samtidigt som återhämtningstiden är lika kort som skyddssystemen. Index Terms-Flexgrid optiska nätverk, Single-path provisioning Multi-path Recovery, bitrate klämmande. | Den enda väg som tillhandahåller multipat återvinning (SPP-MPR) med bitrate presenteras i REF. | 16,067,535 | Single-path provisioning with multi-path recovery in flexgrid optical networks | {'venue': '2012 IV International Congress on Ultra Modern Telecommunications and Control Systems', 'journal': '2012 IV International Congress on Ultra Modern Telecommunications and Control Systems', 'mag_field_of_study': ['Computer Science']} | 396 |
Sammanfattning -Denna uppsats presenterar en adaptiv MAC (AMAC) protokoll för att stödja MAC lager anpassning i kognitiva radionätverk. MAC-protokollanpassning motiveras av flexibiliteten hos nya programvarudefinierade radioapparater som gör det möjligt att dynamiskt justera radioprotokoll och parametrar. Dynamiska förändringar i MAC-skiktet kan vara användbara i trådlösa nätverksscenarier som taktisk kommunikation eller fordonskommunikation där kraven på radioknutor och tjänster kan variera mycket över tid. En särskild kontrollram för den föreslagna AMAC beskrivs baserat på "CogNet" protokoll stack som använder en "global kontrollplan (GCP)" för att distribuera kontrollinformation mellan närliggande radioapparater. En proof-of-concept AMAC-prototyp som växlar mellan CSMA och TDMA implementeras med GNU-radioplattformar på ORBIT-radionätets testbädd. Experimentella resultat ges för både UDP och TCP med dynamiska trafikvariationer. Resultaten visar att adaptiv MAC kan implementeras med rimliga kontrollprotokoll overhead och latency, och att adaptivt nätverk uppnår förbättrad prestanda i förhållande till ett konventionellt statiskt system. Jag. | Huang m.fl. REF utvecklar ett adaptivt MAC-protokoll som kan välja mellan flera MAC. | 11,806,450 | MAC Protocol Adaptation in Cognitive Radio Networks: An Experimental Study | {'venue': '2009 Proceedings of 18th International Conference on Computer Communications and Networks', 'journal': '2009 Proceedings of 18th International Conference on Computer Communications and Networks', 'mag_field_of_study': ['Computer Science']} | 397 |
Här utforskar vi gruvdata om genuttryck från den biomedicinska litteraturen och presenterar Gene Expression Text Miner (GETM), ett verktyg för att extrahera information om uttryck av gener och deras anatomiska platser från text. Förutsatt med erkända gen nämner, GETM identifierar omnämnanden av anatomiska platser och cellinjer, och extraherar text passager där författare diskuterar uttrycket av en viss gen i specifika anatomiska platser eller cellinjer. Detta möjliggör automatisk konstruktion av uttryck profiler för både gener och anatomiska platser. Utvärderad mot en manuellt förlängd version av BioNLP '09 corpus, GETM uppnått precision och återkalla nivåer på 58,8% respektive 23,8%. Tillämpning av GETM på MEDLINE och PubMed Central gav över 700 000 genuttryck nämner. Denna datauppsättning kan ställas genom ett webbgränssnitt, och bör visa sig användbar inte bara för forskare som är intresserade av utvecklingsreglering av specifika gener av intresse, men också för databaskuratorer som syftar till att skapa strukturerade arkiv av genuttrycksinformation. Det sammanställda verktyget, dess källkod, det manuellt kommenterade utvärderingskortet och ett gränssnitt för sökfrågor till datamängden som extraherats från MEDLINE och PubMed Central finns på http://getmproject.sourceforge.net/. | I en studie av Gerner et al. REF, genuttrycksinformation och anatomiska platser extraherades genom att tillämpa en regelbaserad genuttryck text miner till cirka 7.000 PubMed Central artiklar. | 3,872,223 | An Exploration of Mining Gene Expression Mentions and Their Anatomical Locations from Biomedical Text | {'venue': 'Proceedings of the 2010 Workshop on Biomedical Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 398 |
I detta dokument föreslås en ny utformning av icke-ortogonal multipel tillgång (NOMA) under sekretessöverväganden. Vi fokuserar på ett NOMA-system där en sändare skickar konfidentiella meddelanden till flera användare i närvaro av en extern tjuvlyssnare. Den optimala utformningen av avkodningsordning, överföringshastighet och effekt som tilldelas varje användare undersöks. Med tanke på det praktiska passiva tjuvlyssnande scenariot där det ögonblickliga kanaltillståndet hos tjuvlyssnaren är okänt, antar vi risken för sekretessavbrott som sekretessmått. Vi överväger först problemet med att minimera den sändningskraft som är föremål för sekretessavbrott och tjänstebegränsningarnas kvalitet, och härleder den slutna formens lösning på detta problem. Vi undersöker sedan problemet med att maximera den minsta konfidentiella informationshastighet bland användare som omfattas av sekretess avbrott och överföra makt begränsningar, och ge en iterativ algoritm för att lösa detta problem. Vi finner att sekretessförbudet i de studerade problemen inte ändrar den optimala avkodningsordningen för NOMA, och man bör öka den makt som tilldelas användaren vars kanal är relativt dålig när sekretessbegränsningen blir strängare. Slutligen visar vi fördelen med NOMA över ortogonal multipel åtkomst i de studerade problemen både analytiskt och numeriskt. Index Terms-Physical lager säkerhet, icke-ortogonal multipel åtkomst, sekretess avbrott sannolikhet, makt tilldelning. | Den optimala utformningen av avkodningsordning, överföringshastigheter och effekt som tilldelats varje användare för säker nedlänk NOMA undersöktes i REF. | 3,719,923 | On the Design of Secure Non-Orthogonal Multiple Access Systems | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 399 |
Sammanfattning av denna webbsida: Detta arbete föreslår en ny funktionsdetektering och beskrivningsmetod för mobil robotnavigering med hjälp av 2D-lasersensorer. Hela processen består av två huvudmoduler: en sensordatasegmenteringsmodul och en funktionsdetekterings- och karakteriseringsmodul. Segmenteringsmodulen är uppdelad i två på varandra följande steg: För det första delar segmenteringssteget laserskanningen i kluster av på varandra följande avståndsavläsningar med hjälp av ett avståndsbaserat kriterium. Därefter beräknar den andra etappen den krökningsfunktion som är kopplad till varje kluster och använder den för att dela upp den i en uppsättning raka och kurvsegment. Den krökning beräknas med hjälp av en triangel-område representation där, i motsats till tidigare metoder, triangeln sidolängder vid varje intervall avläsning anpassas till de lokala variationerna av laseravsökningen, ta bort buller utan att missa relevanta punkter. Denna representation förblir oförändrad i översättning eller rotation, och den är också robust mot buller. Således kan det ge samma segmentering resultat även om scenen kommer att uppfattas från olika synvinklar. Därför används segmenteringsresultat för att karakterisera miljön med hjälp av linje- och kurvsegment, verkliga och virtuella hörn och kanter. Real scan data samlas in från olika miljöer genom att använda olika plattformar används i experimenten för att utvärdera den föreslagna miljöbeskrivning algoritm. | I REF använder en mobil robot som använder en LIDAR en sensordatasegmenteringsmodul och en funktionsdetektering för att uppskatta en krökningsbaserad miljöbeskrivning i syfte att extrahera funktioner i dynamiska miljöer och upptäcka om ett rörligt föremål kan klassificeras som en fotgängare. | 9,821,998 | Curvature-Based Environment Description for Robot Navigation Using Laser Range Sensors | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 400 |
Kombination av funktioner bidrar till en betydande förbättring av noggrannheten i uppgifter som del-of-tal (POS) taggning och text bitning, jämfört med att använda atomiska funktioner. Att välja kombination av funktioner för lärande med storskaliga och funktionsrika träningsdata kräver dock lång utbildningstid. Vi föreslår en snabbt förstärkande algoritm för inlärningsregler som representeras av en kombination av funktioner. Vår algoritm konstruerar en uppsättning regler genom att upprepa processen för att välja flera regler från en liten del av kandidatreglerna. Kandidatreglerna genereras från en delmängd av alla funktioner med en teknik som liknar strålsökning. Sedan föreslår vi POS-märkning och textskärning baserat på vår inlärningsalgoritm. Vår tagger och biter använda kandidat POS-taggar eller bittaggar av varje ord som samlas in från automatiskt taggade data. Vi utvärderar våra metoder med engelsk POS-märkning och textbitning. De experimentella resultaten visar att träningstiden för vår algoritm är ungefär 50 gånger snabbare än Support Vector Machines med polynomkärna i genomsnitt samtidigt som toppmodern noggrannhet och snabbare klassificeringshastighet bibehålls. | I Ref föreslogs en boosterbaserad metod som upprepar inlärningen av regler som representeras av särdragssamband. | 8,223,389 | A Fast Boosting-based Learner for Feature-Rich Tagging and Chunking | {'venue': 'CoNLL 2008: Proceedings of the Twelfth Conference on Computational Natural Language Learning', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 401 |
Vid 110 meter i diameter och över 350 meter i djup är cenote Zacatón i centrala Mexiko ett unikt översvämmat sjunkhål. En plattform för inledande sonartester är på plats. Vi beskriver en simultan Localization and Mapping (SLAM) metod för en svävande undervattensfordon som kommer att utforska undervattens grottor och tunnlar, en sann tredimensionell (3D) miljö. Vår metod består av en Rao-Blackwellized partikelfilter med en 3D bevis galler karta representation. Vi beskriver ett förfarande för dynamisk justering av antalet partiklar för att ge realtidsprestanda. Vi beskriver också hur vi justerar partikelfiltrets förutsägelsesteg för att ta hänsyn till sensornedbrytning eller fel. Vi presenterar en effektiv oktree datastruktur som gör det möjligt att underhålla de hundratals kartor som behövs av partikelfiltret för att korrekt modellera stora miljöer. Denna bläckfiskstruktur kan utnyttja rumslig lokalitet och tidsdelning mellan partiklar för att minska bearbetnings- och lagringsbehoven. För att testa vår SLAM-metod använder vi data som samlats in med manuellt utplacerade sonarkartläggningsfordon i Wakulla Springs grottsystem i Florida och Sistema Zacatón i Mexiko, samt data som samlats in av DEPTHX-fordonet i testtanken vid Austin Applied Research Laboratory. Vi demonstrerar vår kartläggnings- och lokaliseringsstrategi med dessa verkliga datauppsättningar. | Fairfield m.fl. REF använder bevisgaller inuti ett partikelfilter för att utföra 3D-kartläggning i realtid av ett sjunkhål med en sonar för avbildning. | 12,946,336 | Real-time slam with octree evidence grids for exploration in underwater tunnels | {'venue': 'Journal of Field Robotics', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 402 |
Abstract-Software arkitektur mönster är beprövade och återanvändbara lösningar på vanliga arkitektur design problem. En egenskap hos arkitekturmönster är att de påverkar kvalitetsattribut (t.ex. prestanda, tillförlitlighet). Under de senaste åren har arkitekturmönster för servicebaserade system föreslagits. I detta dokument rapporterar vi de första resultaten om arkitekturmönstrens inverkan på tjänstebaserade system på tjänstebaserade systems kvalitetsattribut. Vi berättade mer än 70 SOA-mönster från en mönsterkatalog till en kvalitetsmodell för servicebaserade system. Baserat på beskrivningen av mönster i katalogen karakteriserade vi samspelet mellan mönster och kvalitetsattribut. Vi hittade flera mönster som inte verkar ta upp kvalitetsattribut explicit. Våra resultat kan användas för att välja SOA-mönster för arkitekturdesign. Dessutom pekar våra resultat på riktningar för ytterligare forskning: Våra preliminära resultat tyder på en missmatchning mellan mönster för servicebaserade system och kvalitetsattribut som anses viktiga för servicebaserade system; därför bör det framtida arbetet fokusera på kvalitetsmodeller för servicebaserade system och på att identifiera arkitekturmönster och mönsterspråk för servicebaserade system. | [10] och REF undersökte en kvantitativ utvärdering av inverkan av vissa arkitektoniska mönster. | 1,158,586 | Qualitative Analysis of the Impact of SOA Patterns on Quality Attributes | {'venue': '2012 12th International Conference on Quality Software', 'journal': '2012 12th International Conference on Quality Software', 'mag_field_of_study': ['Computer Science']} | 403 |