Vakantieverhuur woningfraude

Algoritmen > Handhaving Illegale Vakantieverhuur
Ruimte en Economie

Overzicht

Handhaving Illegale Vakantieverhuur

Handhaving

Tags

Gearchiveerd
Melding Toezicht en Handhaving

In Amsterdam is er beperkt woon- en verblijfsruimte, zowel voor Amsterdammers als voor bezoekers. Het verhuren van een woning of woonboot aan toeristen moet aan bepaalde voorwaarden voldoen. Het mag bijvoorbeeld maximaal 30 nachten per jaar en aan 4 personen per keer. Het moet gemeld worden bij de gemeente.

Niet iedereen houdt zich aan die voorwaarden. De gemeente krijgt soms meldingen van buren die vermoeden dat een woning onterecht verhuurd is. Medewerkers van Toezicht & Handhaving doen daar onderzoek naar.

Het voornemen van directie Wonen was om vanaf 1 juli 2020 te starten met deze instrumenten. Door de gevolgen van de Coronapandemie hebben wij dit uitgesteld naar 1 december 2021. Vanaf 1 december 2021 doen we gedurende een negen maanden, tot september 2022 jaar een test (pilot) met een algoritme dat de medewerkers van Toezicht & Handhaving ondersteunt als zij meldingen van mogelijke illegale vakantieverhuur onderzoeken. Het algoritme helpt de meldingen te prioriteren zodat de beperkte handhavingscapaciteit efficiënt en effectief ingezet kan worden. Door gegevens te analyseren, schat het algoritme het risico in dat de woning op het gemelde adres illegaal wordt verhuurd. Het algoritme gebruikt daarvoor data uit onrechtmatige vakantieverhuur van de afgelopen 5 jaar. Het gaat om meldingen, gegevens die de gemeente tijdens het werkproces heeft verzameld, persoonsgegevens (Basisregistratie Personen) en gegevens over gebouwen (Basisregistratie Adressen en Gebouwen).


Link naar dienst

Contactgegevens


  • Afdeling

  • Directie Wonen, Toezicht en Handhaving
  • Contact team voor vragen

  • Team Vakantieverhuur/onderhuur
  • Externe leveranciers

  • Ontwikkeld in eigen beheer
  • Contact e-mail

  • algoritmen@amsterdam.nl
  • Contact telefoon

  • 14020


Gedetailleerde informatie over het systeem

Hier kunt u kennismaken met de door het systeem gebruikte informatie, de werkingslogica en het bestuur ervan op de gebieden die u interesseren.


Datasets Toon Meer Toon Minder

Belangrijke gegevensbronnen die worden gebruikt bij de ontwikkeling en het gebruik van het systeem, hun inhoud en gebruiksmethoden. De verschillende gegevensbronnen worden gescheiden door subkoppen.

Naam

Identiteits- en huisvestingsgegevens (BRP)

Datasetbeschrijving

Een beperkte set gegevens uit de Basisregistratie Personen (BRP) over de identiteit en huisvestingssituatie van de bewoners, namelijk:

  • naam van de geregistreerde bewoners;
  • geboortedatum;
  • vertrekdatum Amsterdam;
  • vertrekdatum adres;
  • vestigingsdatum adres;
  • overlijdensdatum.

Persoonlijke gegevens

Geïdentificeerd

Bron

BRP

Naam

Gegevens over gebouwen (BAG)

Datasetbeschrijving

Een beperkte set gegevens uit de Basisregistratie Adressen en Gebouwen (BAG) over het gebouw, namelijk:

  • adres, straatcode, postcode;
  • id-adres;
  • omschrijving pand;
  • Amsterdamse BAG-code, landelijke BAG-code;
  • type woning (huur, sociale huur / vrije sector, koop);
  • adresseerbaar BAG-ID
  • aantal kamers;
  • vloeroppervlak;
  • bouwlaag van voordeur appartement;
  • aantal bouwlagen;
  • omschrijving verdieping woonobject.

Persoonlijke gegevens

Geïdentificeerd

Bron

BAG

Naam

Gegevens uit illegale vakantieverhuurzaak

Datasetbeschrijving

Gegevens uit de melding en eventuele gerelateerde illegale vakantieverhuurzaak, namelijk:

  • zaak id;
  • datum van start van onderzoek / melding;
  • stadium van behandeling van de melding;
  • stadia nummer, omschrijving en id;
  • (meld)code;
  • code overtreding;
  • code (behandelend) medewerker;
  • wel / geen anonieme melder;
  • datum melding;
  • situatieschets;
  • bevindingen onderzoek;
  • gebruiker die melding heeft gecreëerd (met datum), of aangepast (met datum aanpassing);
  • behandelcode (type zaak, indeling in team);
  • resultaat;
  • datum wanneer zaak is afgesloten;
  • reden waarom zaak is afgesloten.

Persoonlijke gegevens

Geïdentificeerd

Human oversight Toon Meer Toon Minder

Menselijk toezicht tijdens het gebruik van de dienst.

Er is geen sprake van geautomatiseerde besluitvorming. Als we een adres onderzoeken op het vermoeden van illegale vakantieverhuur komt dit voort uit een melding van bijvoorbeeld een omwonende of een verhuurplatform. Het algoritme helpt de medewerkers van Toezicht & Handhaving te bepalen bij welke meldingen de kans op illegale verhuur het grootst is, zodat die meldingen het eerst onderzocht kunnen worden. De medewerker krijgt een overzicht te zien, die toont op grond van welke criteria het algoritme het risico op illegale vakantieverhuur hoog of laag inschat. Op die manier maken we inzichtelijk waarop het algoritme de risico-inschatting heeft gebaseerd.

Of er daadwerkelijk sprake is van illegale vakantieverhuur wordt vastgesteld door de verantwoordelijk toezichthouder en de projecthandhaver. Daarvoor wordt een voor- en buitendienstonderzoek uitgevoerd. Vervolgens wordt het dossier intensief besproken in een debriefing met de medewerkers die tot besluitvorming kunnen overgaan. Het algoritme heeft een wezenlijke invloed op de volgorde waarin we meldingen afhandelen, maar neemt niet zelfstandig de beslissingen of er al dan niet sprake is van illegale vakantieverhuur.

Om te voorkomen dat medewerkers teveel vertrouwen in het algoritme hebben, is er iemand aangesteld om het algoritme en de werking daarvan te monitoren. Daarnaast is een werkinstructie opgesteld voor de medewerkers die met dit instrument gaan werken. Daarbij volgen de medewerkers workshop over de kansen en risico’s van het gebruik van algoritmen.

Gegevensverwerking Toon Meer Toon Minder

De operationele logica van de automatische gegevensverwerking en redenering uitgevoerd door het systeem en de gebruikte modellen.

Beschrijving van de systeemarchitectuur

Gemeente Amsterdam heeft een algoritme ontwikkeld dat verbanden en patronen kan vinden in grote hoeveelheid informatie over illegale vakantieverhuur. Het algoritme berekent welke informatie vaker in verband kan worden gebracht met illegale vakantieverhuur en welke informatie niet. Het algoritme doet dit door wiskundige berekeningen uit te voeren volgens het kansboom-principe. Dat wil zeggen dat het algoritme op basis van een groot aantal kansberekeningen een gemiddelde neemt. Dit gemiddelde wordt gebruikt om de wiskundige verwachting te genereren van illegale vakantieverhuur op een adres. Het algoritme berekent deze verwachting pas als we een nieuwe melding (bijvoorbeeld van een omwonende of verhuurplatform) ontvangen van mogelijke illegale vakantieverhuur.

Dit algoritme wordt een ‘random forest regressie algoritme’ genoemd. Om de door het algoritme gemaakte afwegingen inzichtelijk te maken voor mensen passen we de “SHAP”-methodiek toe (SHapley Additive exPlanations; https://github.com/slundberg/shap). SHAP berekent voor iedere individuele zaak welke indicatoren hebben bijgedragen aan die voorspelling en of dit ervoor zorgde dat de voorspelling hoger of lager werd. Zo kan een medewerker altijd zien waar het algoritme de risico-inschatting op heeft gebaseerd en een afgewogen besluit nemen.

Afbeelding van systeemarchitectuur

vakantieverhuur-woningfraude.png

Prestatie

Het voordeel van een ‘random forest regressie’ is dat het een redelijk complex algoritme is dat de werkelijkheid goed kan benaderen. Maar er is wel een kans op overfitting. Een ‘tree’ met veel lagen perst de data uit om specifieke antwoorden te leveren. Er is onderzocht hoeveel lagen het model nodig heeft om generiek inzetbaar te blijven en dus niet te overfitten. Daarnaast worden continu datapunten gecategoriseerd (gegroepeerd), zodat het model een overzichtelijk aantal mogelijkheden heeft in plaats van een oneindig aantal met continue waarden. Hierdoor is het model beter in staat is om tot een conclusie te komen.

Non-discriminatie Toon Meer Toon Minder

Promotie en realisatie van gelijkheid in het gebruik van de dienst.

Bij het ontwikkelen van het algoritme hebben we kritisch gekeken naar beschikbare datasets. Hiervoor is een ‘Privacy Impact assessment’ (PIA) opgesteld. We hebben ervoor gekozen niet alle beschikbare informatie te verwerken in het algoritme. We hebben alleen informatie die noodzakelijk is voor het vaststellen van een overtreding van de Huisvestingswet opgenomen in de dataset waarop het algoritme is ontwikkeld[1]. Informatie als geboorteplaats, nationaliteit, burgerlijke staat en geboorteland zijn niet verwerkt in het algoritme. Dat voorkomt dat er een vertekend beeld of vooroordeel ontstaat over specifieke groepen.

De gegevens die het algoritme gebruikt, komen van eerdere illegale vakantieverhuurzaken. Er moeten kwalitatief goede gegevens worden gebruikt om een handhavingsbesluit te kunnen onderbouwen en juridisch staande te kunnen houden. We nemen daarom aan dat de onderliggende gegevens geen wezenlijke vooroordelen bevatten, die doen twijfelen aan de betrouwbaarheid van de gegevens en de kansberekening.

Een algoritme kan echter zo goed zijn in het vinden van patronen, dat het direct uitsluiten van gevoelige gegevens niet voldoende is. We hebben daarom ook uitgezocht of de niet-gevoelige gegevens die het algoritme verwerkt indirect toch tot ongewenste verschillen in behandeling leiden. Het zou bijvoorbeeld kunnen dat in bepaalde wijken veel mensen wonen met een bepaalde nationaliteit, of dat een bepaalde groep gemiddeld genomen grotere gezinnen heeft. Als het algoritme dan gebruik kan maken van een gegeven als postcode of gezinsgrootte, kan het indirect alsnog onderscheid maken tussen bepaalde groepen, simpelweg door onderscheid te maken tussen wijken/gezinsgrootte. Zo kan een groep alsnog benadeeld worden door het algoritme, ook al is de groep niet expliciet bekend bij het algoritme.

We hebben ervoor gekozen om hier nader onderzoek naar te doen. Het zogenaamd onderzoek naar onbewuste vooringenomenheid (bias) uitgevoerd en de resultaten hiervan zijn te vinden op:

            Blog post 1:

Analyzing Bias in Machine Learning: a step-by-step approach (amsterdamintelligence.com)

Er kan worden geconcludeerd dat het algoritme vrij is van een ongerechtvaardigde vooringenomenheid en daarmee geschikt is om een pilot mee te starten.

 

[1] Commissie Persoonsgegevens Amsterdam – Gemeente Amsterdam, advies Bias analyse over ontwikkelde algoritme 10 december 2020.

Referenties Toon Meer Toon Minder

Rechtsgrondslag beschrijving

Live service adres

Adres privacybeleid

Risicobeheer Toon Meer Toon Minder

Risico's in verband met het systeem en het gebruik ervan en de beheersmethoden.

Het systeem heeft uiteraard gevolgen voor de mogelijke overtreder. Een melding kan namelijk meer of minder prioriteit krijgen dan zonder het algoritme. We hebben verschillende maatregelen getroffen om ervoor te zorgen dat alle risico-inschattingen van het algoritme niet op toeval berusten. Een belangrijk maatregel is dat we dit algoritme in een pilotfase uitvoerig en voortdurend evalueren op bv. betrouwbaarheid, voordat het wordt geïmplementeerd in de bedrijfsvoering.

Vond u deze informatie nuttig?

Wilt u feedback geven? Uw feedback zal ons helpen onze algoritmen verder te ontwikkelen.

Met behulp van dit formulier kunt u feedback geven op dit systeem. Deel via dit formulier geen persoonlijke gegevens, zoals naam of emailadres. Als je een reactie op je feedback wilt ontvangen, stuur je feedback dan naar ons e-mailadres algoritmen@amsterdam.nl.

Dit formulier is niet bedoeld voor bezwaar of beroep tegen specifieke besluiten van de gemeente. Neem bij bezwaren contact met ons op via deze pagina.